Python 停止对每个步骤进行并行化的Metaflow

Python 停止对每个步骤进行并行化的Metaflow,python,deep-learning,metaflow,Python,Deep Learning,Metaflow,我最近开始使用Metaflow进行超参数搜索。我对所有参数使用foreach,如下所示: 从metaflow导入FlowSpec,步骤 @台阶 def start_hpo(自): self.next(self.train\u模型,foreach='hpo\u参数') @台阶 def系列_型号(自): #火车模型。。。 当它按预期启动步骤train_model时,它就起作用了,但不幸的是,它希望同时并行所有步骤。这会导致我的gpu/cpu在执行步骤失败时立即耗尽内存 有没有办法告诉metaflo

我最近开始使用Metaflow进行超参数搜索。我对所有参数使用
foreach
,如下所示:

从metaflow导入FlowSpec,步骤
@台阶
def start_hpo(自):
self.next(self.train\u模型,foreach='hpo\u参数')
@台阶
def系列_型号(自):
#火车模型。。。
当它按预期启动步骤
train_model
时,它就起作用了,但不幸的是,它希望同时并行所有步骤。这会导致我的gpu/cpu在执行步骤失败时立即耗尽内存

有没有办法告诉metaflow线性地/一次一个地执行这些步骤,或者其他解决方法


谢谢

@BBQuercus您可以通过使用
--max workers
标志来限制并行化


目前,我们并行运行的任务不超过16个,您可以将其覆盖为
python myflow.py run--max workers 32

有没有办法为特定步骤指定此值,或者在
foreach
启动的不同步骤中自定义
max workers
?目前没有,我们刚刚打开了一个Github问题,跟踪功能请求-