Deep learning 如何在Pytorch中以批处理方式调用函数

Deep learning 如何在Pytorch中以批处理方式调用函数,deep-learning,pytorch,Deep Learning,Pytorch,我已经定义了一个函数,我只想知道是否可以批量执行它。比如说, def function(): Some processes here return x def forward(): encode = self._encoding(embedded_premises,premises_lengths) 现在,编码将是3D张量,它将是批量大小、seq_长度、隐藏大小我想执行函数()batchwise和返回x 除了在所有批次上循环之外,还有其他方法吗?如果您在函数中使用py

我已经定义了一个函数,我只想知道是否可以批量执行它。比如说,

def function():
    Some processes here
    return x

def forward():
    encode = self._encoding(embedded_premises,premises_lengths)
现在,编码将是3D张量,它将是
批量大小、seq_长度、隐藏大小
我想执行
函数()
batchwise和
返回x


除了在所有批次上循环之外,还有其他方法吗?

如果您在
函数中使用pytorch函数,如果您希望您的方法使用autograd,它很可能会以批次方式工作。这意味着大多数pytorch操作都将第一个维度作为批处理维度(例如卷积、线性层等)来考虑。有时,表达操作更为复杂,因此它既正确又快速,但一般来说,pytorch构建时假设操作将用于批处理数据,并且尽可能简单。如果您有一个更具体的
函数的示例,请发布。

您能添加更多关于
函数的详细信息吗?pytorch中的大多数操作都是批处理的already@UmangGupta关于
函数
,您想了解什么?事实上,我知道有一些函数像这里讨论的矩阵乘法。如果有帮助,
功能
不是内置的。我已经实现了自己的自定义函数。例如,我的
forward()。。那么对不起,不!它不存在。所以这取决于您在批处理中执行的操作。大多数操作(如conv、lstm等)都已批量运行。