Pytorch 为什么在iOS上使用Caffe2或Core ML而不是LibTorch(.pt文件)?

Pytorch 为什么在iOS上使用Caffe2或Core ML而不是LibTorch(.pt文件)?,pytorch,coreml,onnx,caffe2,libtorch,Pytorch,Coreml,Onnx,Caffe2,Libtorch,似乎有几种方法可以在iOS上运行Pytorch模型 PyTorch(.pt)->onnx->caffe2 PyTorch(.pt)->onnx->Core ML(.mlmodel) PyTorch(.pt)->LibTorch(.pt) 皮托克移动电话 以上方法有什么区别? 为什么人们使用需要模型格式转换的caffe2或Core ml(.mlmodel),而不是LibTorch?Core ml可以使用苹果神经引擎(ANE),这比在CPU或GPU上运行模型快得多。如果设备没有ANE,Core ML

似乎有几种方法可以在iOS上运行Pytorch模型

  • PyTorch(.pt)->onnx->caffe2
  • PyTorch(.pt)->onnx->Core ML(.mlmodel)
  • PyTorch(.pt)->LibTorch(.pt)
  • 皮托克移动电话
  • 以上方法有什么区别?
    为什么人们使用需要模型格式转换的caffe2或Core ml(.mlmodel),而不是LibTorch?

    Core ml可以使用苹果神经引擎(ANE),这比在CPU或GPU上运行模型快得多。如果设备没有ANE,Core ML可以自动退回到GPU或CPU

    我还没有详细研究PyTorch Mobile,但我认为它目前只在CPU上运行,而不是在GPU上运行。而且它肯定不会在电子计算机上运行,因为只有Core ML可以这样做

    转换模型可能会很麻烦,尤其是PyTorch,它需要先通过ONNX。但最终你会找到一种运行这些模型的更快的方法