用于向tensorflow模型提供tfrecords字节的java api
是否有人知道java中存在用于直接读取tfrecords并馈送到tensorflow savedModel的高级api。Python api允许将example.proto(tfrecords)和张量都提供给tf模型进行推理。我在java中看到的唯一api是创建原始张量,是否有一种类似于python sdk的方法,可以直接将tfrecords(example.proto)提供给java中保存的模型包。我刚刚遇到了相同的场景,我使用java Apache Beam读取记录。例如,用于向tensorflow模型提供tfrecords字节的java api,tensorflow,tensorflow-serving,tensor,tensorflow-datasets,tensorflow-estimator,Tensorflow,Tensorflow Serving,Tensor,Tensorflow Datasets,Tensorflow Estimator,是否有人知道java中存在用于直接读取tfrecords并馈送到tensorflow savedModel的高级api。Python api允许将example.proto(tfrecords)和张量都提供给tf模型进行推理。我在java中看到的唯一api是创建原始张量,是否有一种类似于python sdk的方法,可以直接将tfrecords(example.proto)提供给java中保存的模型包。我刚刚遇到了相同的场景,我使用java Apache Beam读取记录。例如, 管道 .app
管道
.apply(TFRecordIO.read().from(数据路径))
.apply(新模型评估fn()的第1部分);
在modeleevaluation fn
内部,我使用savedModel
进行评分。使用Java Apache Beam,您可以在本地运行,在GCP数据流、Spark、Flink等上运行。但是如果您直接使用Spark,则会出现以下问题
我遇到的另一件事是如何在Java中解析tfrecords,因为我需要使用一些列值来获得细分分数,从而获得标签值和组。package可以帮助您做到这一点。下面是示例:,。本质上,它是Example.parseFrom(byte[])