如何使用TensorflowFederated创建您自己的联合数据集并在多个设备上学习?
我正在尝试使用TFF实现联合学习。我已经启动了3个EC2实例,并在conda环境中设置了TFF。我试图弄清楚如何创建一个包含一些CSV文件的联合数据集,然后通过其中一个作为中心,另外两个作为客户端,开始对这些EC2实例进行培训。在TFF代码中,我可以看到TFF.CLIENTS有一个URI属性,但不确定如何将其映射到IP/Some端点,以便在客户端和服务器之间进行通信 我已经使用当前提供的TFF函数在中搜索了实现此目的的方法,但找不到任何关于实现此案例的指针。(实际上,tff.CLIENT和tff.SERVER这两个放置文字目前还未通过API公开,并计划在将来的版本中公开) 在tensorflow\u federated\python\core\impl\placement\u literals.py中:如何使用TensorflowFederated创建您自己的联合数据集并在多个设备上学习?,tensorflow,tensorflow-federated,Tensorflow,Tensorflow Federated,我正在尝试使用TFF实现联合学习。我已经启动了3个EC2实例,并在conda环境中设置了TFF。我试图弄清楚如何创建一个包含一些CSV文件的联合数据集,然后通过其中一个作为中心,另外两个作为客户端,开始对这些EC2实例进行培训。在TFF代码中,我可以看到TFF.CLIENTS有一个URI属性,但不确定如何将其映射到IP/Some端点,以便在客户端和服务器之间进行通信 我已经使用当前提供的TFF函数在中搜索了实现此目的的方法,但找不到任何关于实现此案例的指针。(实际上,tff.CLIENT和tff
PlacementLiteral(object):
"""A representation of one of the globally recognized placement literals."""
def __init__(self, name, uri, default_all_equal, description):
self._name = name
self._uri = uri #URI for client/Server
self._description = description
self._default_all_equal = default_all_equal
NA
TFF目前仅完全支持单机模拟。目前正在开展工作,以使多机仿真环境能够实现更快的仿真(虽然语义上是相同的结果),但这项工作仍在继续 我建议首先在单机模拟中运行TFF