如何使用TensorflowFederated创建您自己的联合数据集并在多个设备上学习?

如何使用TensorflowFederated创建您自己的联合数据集并在多个设备上学习?,tensorflow,tensorflow-federated,Tensorflow,Tensorflow Federated,我正在尝试使用TFF实现联合学习。我已经启动了3个EC2实例,并在conda环境中设置了TFF。我试图弄清楚如何创建一个包含一些CSV文件的联合数据集,然后通过其中一个作为中心,另外两个作为客户端,开始对这些EC2实例进行培训。在TFF代码中,我可以看到TFF.CLIENTS有一个URI属性,但不确定如何将其映射到IP/Some端点,以便在客户端和服务器之间进行通信 我已经使用当前提供的TFF函数在中搜索了实现此目的的方法,但找不到任何关于实现此案例的指针。(实际上,tff.CLIENT和tff

我正在尝试使用TFF实现联合学习。我已经启动了3个EC2实例,并在conda环境中设置了TFF。我试图弄清楚如何创建一个包含一些CSV文件的联合数据集,然后通过其中一个作为中心,另外两个作为客户端,开始对这些EC2实例进行培训。在TFF代码中,我可以看到TFF.CLIENTS有一个URI属性,但不确定如何将其映射到IP/Some端点,以便在客户端和服务器之间进行通信

我已经使用当前提供的TFF函数在中搜索了实现此目的的方法,但找不到任何关于实现此案例的指针。(实际上,tff.CLIENT和tff.SERVER这两个放置文字目前还未通过API公开,并计划在将来的版本中公开)

在tensorflow\u federated\python\core\impl\placement\u literals.py中:

 PlacementLiteral(object):
  """A representation of one of the globally recognized placement literals."""

  def __init__(self, name, uri, default_all_equal, description):
    self._name = name
    self._uri = uri #URI for client/Server
    self._description = description
    self._default_all_equal = default_all_equal

NA

TFF目前仅完全支持单机模拟。目前正在开展工作,以使多机仿真环境能够实现更快的仿真(虽然语义上是相同的结果),但这项工作仍在继续

我建议首先在单机模拟中运行TFF