pytorch对autograd.numpy

pytorch对autograd.numpy,numpy,pytorch,autograd,Numpy,Pytorch,Autograd,pytorch和numpy之间的最大区别是什么,特别是autograd.numpy包?(因为它们都可以为您自动计算渐变。) 我知道Pytork可以将张量移动到GPU,但这是选择Pytork而不是numpy的唯一原因吗? 虽然Pytork以深度学习而闻名,但显然它可以用于几乎任何机器学习算法,其神经网络模块结构非常灵活,我们不必局限于神经网络。(尽管我从未见过任何用numpy编写的神经网络模型) 所以我想知道pytorch和numpy最大的区别是什么 我不确定这个问题是否能得到客观的回答,但除了G

pytorch和numpy之间的最大区别是什么,特别是autograd.numpy包?(因为它们都可以为您自动计算渐变。) 我知道Pytork可以将张量移动到GPU,但这是选择Pytork而不是numpy的唯一原因吗? 虽然Pytork以深度学习而闻名,但显然它可以用于几乎任何机器学习算法,其神经网络模块结构非常灵活,我们不必局限于神经网络。(尽管我从未见过任何用numpy编写的神经网络模型)
所以我想知道pytorch和numpy最大的区别是什么

我不确定这个问题是否能得到客观的回答,但除了GPU功能外,它还提供

  • 跨GPU的并行化
  • 跨机器的并行化
  • 数据加载程序/操纵器,包括异步预取
  • 优化器
  • 预定义/预训练模型(可节省大量时间)

但正如你所说,它是围绕深度/机器学习构建的,所以这就是它的优点,而numpy(与scipy一起)更为通用,可以用于解决大量其他工程问题(可能使用目前不流行的方法)。

我不确定这个问题是否能得到客观的回答,但除了GPU功能外,它还提供

  • 跨GPU的并行化
  • 跨机器的并行化
  • 数据加载程序/操纵器,包括异步预取
  • 优化器
  • 预定义/预训练模型(可节省大量时间)
但正如您所说,它是围绕深度/机器学习构建的,所以这就是它的优点,而numpy(与scipy一起)更通用,可以用于解决大量其他工程问题(可能使用目前不流行的方法)