Deep learning 部署深度学习模型时的速度和内存问题

Deep learning 部署深度学习模型时的速度和内存问题,deep-learning,classification,Deep Learning,Classification,我需要建立一个图像分类的深度学习模型。我需要在这些数据上训练一个深度学习模型,然后将其部署到真正的机器上 总之,我的主要问题是: 图像非常大,这导致CUDA内存问题。我该如何防止我的模型内存不足 此外,我需要一个非常快速的推断,因为该模型将用于实际部署环境。速度对于及时响应非常重要 我需要解决这两个问题来部署我的模型。我认为您需要更好的GPU卡,因为深度学习需要机器。我认为减小图像的大小很重要。如有必要,可以对其进行重塑,这可以显著降低内存成本。我认为您可以尝试不同的批量大小。因为批量大小直

我需要建立一个图像分类的深度学习模型。我需要在这些数据上训练一个深度学习模型,然后将其部署到真正的机器上

总之,我的主要问题是:

  • 图像非常大,这导致CUDA内存问题。我该如何防止我的模型内存不足

  • 此外,我需要一个非常快速的推断,因为该模型将用于实际部署环境。速度对于及时响应非常重要


我需要解决这两个问题来部署我的模型。

我认为您需要更好的GPU卡,因为深度学习需要机器。

我认为减小图像的大小很重要。如有必要,可以对其进行重塑,这可以显著降低内存成本。

我认为您可以尝试不同的批量大小。因为批量大小直接关系到深度学习的训练和推理速度。但我认为更好的GPU机器卡对于使用深度学习网络进行图像分类更为重要