Google cloud platform 在GoogleML引擎中是否可以进行并行而不是分布式的超参数调优?
我希望让每个ML引擎工作人员独立处理一次试验,而不是让他们配合每次试验(分布式培训) 这可能吗Google cloud platform 在GoogleML引擎中是否可以进行并行而不是分布式的超参数调优?,google-cloud-platform,google-cloud-ml,Google Cloud Platform,Google Cloud Ml,我希望让每个ML引擎工作人员独立处理一次试验,而不是让他们配合每次试验(分布式培训) 这可能吗 (当设置workerCount>0时,似乎会将每个试验传递给每个工人,与为maxParallelTrial设置的值无关)如果每个试验只需要一台机器,则根据每个试验的要求配置您的培训输入(例如,workerCount=0;parameterServerCount=0)并使用maxParallelTrial控制并行试验的数量。这应该会达到预期的效果。太好了,我假设并行试验只使用指定的集群,不会重复它们。
(当设置
workerCount
>0时,似乎会将每个试验传递给每个工人,与为maxParallelTrial
设置的值无关)如果每个试验只需要一台机器,则根据每个试验的要求配置您的培训输入
(例如,workerCount=0;parameterServerCount=0)并使用maxParallelTrial
控制并行试验的数量。这应该会达到预期的效果。太好了,我假设并行试验只使用指定的集群,不会重复它们。