Tensorflow 具有并行迭代的tf.map_fn的Pytorch等价物?

Tensorflow 具有并行迭代的tf.map_fn的Pytorch等价物?,tensorflow,pytorch,Tensorflow,Pytorch,我在GPU上执行PyTorch函数n_iters次。目前我正在使用for循环来实现这一点。然而,当n_iter很大时,这是非常低效的。我想知道是否有一个PyTorch相当于tf.map\u fn,具有并行迭代功能,这样我就可以并行执行所有迭代?我进行了深入搜索,但在PyTorch中找不到任何与tf.map\u fn相当的函数,该函数公开了用户设置的并行迭代次数 在探索过程中,我发现有一个名为“nn.DataParallel”的函数,但该函数复制了要在多个GPU上运行的模型或操作,然后返回的结果与

我在GPU上执行PyTorch函数n_iters次。目前我正在使用for循环来实现这一点。然而,当n_iter很大时,这是非常低效的。我想知道是否有一个PyTorch相当于tf.map\u fn,具有并行迭代功能,这样我就可以并行执行所有迭代?

我进行了深入搜索,但在PyTorch中找不到任何与tf.map\u fn相当的函数,该函数公开了用户设置的并行迭代次数

在探索过程中,我发现有一个名为“nn.DataParallel”的函数,但该函数复制了要在多个GPU上运行的模型或操作,然后返回的结果与tf.map\u fn中的并行迭代次数不相等

但就目前而言,在Pytorch中,使用for循环是唯一的方法