Python 预训练模型的极限Keras/Tensorflow RAM

Python 预训练模型的极限Keras/Tensorflow RAM,python,tensorflow,heroku,keras,memory-management,Python,Tensorflow,Heroku,Keras,Memory Management,我正在尝试使用Heroku创建一个API,它包含一个预训练的Keras模型。Heroku将其更便宜的服务限制在512MB内存。我试图使用来自的模型,但很快就遇到了内存上限。我意识到,虽然磁盘上的重量很小(150MB),但满载的模型最终大约是750MB。是否有必要告诉tensorflow/keras在RAM使用方面更加小心,或者使用其他更有效的RAM库来评估这些权重

我正在尝试使用Heroku创建一个API,它包含一个预训练的Keras模型。Heroku将其更便宜的服务限制在512MB内存。我试图使用来自的模型,但很快就遇到了内存上限。我意识到,虽然磁盘上的重量很小(150MB),但满载的模型最终大约是750MB。是否有必要告诉tensorflow/keras在RAM使用方面更加小心,或者使用其他更有效的RAM库来评估这些权重