如何保存Tensorflow编码器-解码器模型?

如何保存Tensorflow编码器-解码器模型?,tensorflow,keras,google-cloud-ml,encoder-decoder,Tensorflow,Keras,Google Cloud Ml,Encoder Decoder,我接着构建了一个编码器-解码器语言翻译模型,并为我的母语构建了一个模型 现在我想保存它,部署在CloudML引擎上,并使用HTTP请求进行预测 我找不到关于如何保存此模型的清晰示例 我是ML的新手,发现v令人困惑 有没有一种方法可以使用以下内容保存此模型 在打开课程并完成培训后创建列车保护程序,保存模型: with tf.Session() as sess: saver = tf.train.Saver() # Training of the model save_

我接着构建了一个编码器-解码器语言翻译模型,并为我的母语构建了一个模型

现在我想保存它,部署在CloudML引擎上,并使用HTTP请求进行预测

我找不到关于如何保存此模型的清晰示例

我是ML的新手,发现v令人困惑

有没有一种方法可以使用以下内容保存此模型

在打开课程并完成培训后创建列车保护程序,保存模型:

with tf.Session() as sess:
     saver = tf.train.Saver()
     # Training of the model
     save_path = saver.save(sess, "logs/encoder_decoder")
     print(f"Model saved in path {save_path}")

可以将Keras模型保存为Keras的HDF5格式,请参见:

您将需要执行以下操作:

import tf.keras
model = tf.keras.Model(blah blah)
model.save('my_model.h5')
如果迁移到TF 2.0,那么在TF.keras中构建模型并使用TF SavedModel格式进行部署就更简单了。本2.0教程展示了如何使用预训练的tf.keras模型,以SavedModel格式保存模型,部署到云,然后执行HTTP预测请求:


Hi@UpaJah,我不知道该怎么走。一些非平凡的模型,如编码器-解码器,在keras中没有出现。所以,当keras为您处理会话时,在tf中,您应该显式地控制它。(这里解释了
Saver
类,您的链接也不短,但如果您必须使用tensorflow,则相当不错。这对我来说很有帮助tf@MikhailStepanov谢谢,我想我会用Tensorlflow建立模型。嗨,@UpaJah。你明白了吗?我现在也有同样的问题,正在寻找解决办法。你能给我一些建议吗?我正在使用tensorflow的渴望模式,代码将如何准确地工作?我想我需要在Tensorflow图中再次编写代码