Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 生产-加载文件以进行快速计算的最佳方式是什么?_Tensorflow_Keras_Deployment_Deep Learning - Fatal编程技术网

Tensorflow 生产-加载文件以进行快速计算的最佳方式是什么?

Tensorflow 生产-加载文件以进行快速计算的最佳方式是什么?,tensorflow,keras,deployment,deep-learning,Tensorflow,Keras,Deployment,Deep Learning,我正在部署一个深度学习模型,并将keras模型保存为.h5文件。我认为复杂的模型会使它变大,从而降低服务器上的交互速度,但是除了减少模型中的层之外,还有其他方法可以做到吗?是否有一种压缩.h5文件的方法,以便服务器更快地加载它 谢谢有一种方法可以做到这一点 你要找的是量化 不一定减少与模型修剪等效的层,量化通过修改权重的精度(或在某些情况下甚至激活)来减少模型的大小和延迟 有关更多详细信息,请阅读TensorFlow官方文档的本页:

我正在部署一个深度学习模型,并将keras模型保存为.h5文件。我认为复杂的模型会使它变大,从而降低服务器上的交互速度,但是除了减少模型中的层之外,还有其他方法可以做到吗?是否有一种压缩.h5文件的方法,以便服务器更快地加载它


谢谢

有一种方法可以做到这一点

你要找的是
量化

不一定减少与模型修剪等效的层,
量化
通过修改权重的精度(或在某些情况下甚至激活)来减少模型的大小和延迟

有关更多详细信息,请阅读TensorFlow官方文档的本页: