Google cloud platform 在ml引擎上部署模型,使用tf.train.Saver()导出
我想在新版谷歌ML引擎上部署一个模型。 以前,使用Google ML,我可以导出经过训练的模型,创建一个Google cloud platform 在ml引擎上部署模型,使用tf.train.Saver()导出,google-cloud-platform,google-cloud-ml-engine,Google Cloud Platform,Google Cloud Ml Engine,我想在新版谷歌ML引擎上部署一个模型。 以前,使用Google ML,我可以导出经过训练的模型,创建一个tf.train.Saver(),使用Saver.save(会话,输出)保存模型 到目前为止,我还无法确定以这种方式获得的导出模型是否仍然可以部署在ml引擎上,或者我必须按照所述的培训程序创建一个新的培训师包,并使用ml引擎对我的模型进行必要的培训 我仍然可以使用tf.train.Saver()来获得我将在ml引擎上部署的模型吗?tf.train.Saver()只生成一个检查点 Cloud M
tf.train.Saver()
,使用Saver.save(会话,输出)
保存模型
到目前为止,我还无法确定以这种方式获得的导出模型是否仍然可以部署在ml引擎上,或者我必须按照所述的培训程序创建一个新的培训师包,并使用ml引擎对我的模型进行必要的培训
我仍然可以使用tf.train.Saver()
来获得我将在ml引擎上部署的模型吗?tf.train.Saver()只生成一个检查点
Cloud ML引擎使用从以下API生成的SavedModel:
保存的模型是一个检查点+一个包含一个或多个图形定义的序列化protobuf+一组声明图形/模型输入和输出的签名+其他资产文件(如果适用),以便在服务时可以使用所有这些文件
我建议看几个例子: