转换后的Tensorflow JS模型报告缺少输入形状

转换后的Tensorflow JS模型报告缺少输入形状,tensorflow,tensorflow2.0,tensorflow.js,Tensorflow,Tensorflow2.0,Tensorflow.js,我正在移植,以便使用TFJS在浏览器中运行。我的培训没有问题,在整个培训过程中定期从模型中导出良好的示例图像 要导出到TFJS,我从最新的检查点加载生成器模型,并使用model.save(model\u name.h5,save\u format='h5') 然后,我使用tensorflowjs_转换器--input_format=keras model_name.h5 tfjs_model 在浏览器中加载模型时,出现以下错误: 错误:顺序模型中的第一层必须获得'inputShape'或'bat

我正在移植,以便使用TFJS在浏览器中运行。我的培训没有问题,在整个培训过程中定期从模型中导出良好的示例图像

要导出到TFJS,我从最新的检查点加载生成器模型,并使用
model.save(model\u name.h5,save\u format='h5')

然后,我使用
tensorflowjs_转换器--input_format=keras model_name.h5 tfjs_model

在浏览器中加载模型时,出现以下错误:

错误:顺序模型中的第一层必须获得'inputShape'或'batchInputShape'参数。

这令人费解,因为生成器的第一层确实定义了输入形状:

def Generator(filters):
    inputs = tf.keras.layers.Input(shape=[256, 256, 3])
此外,在导出之前可视化模型时,它似乎还定义了输入形状

我使用的是TensorFlow2.1.0和TensorFlowJS1.7.2

对如何解决这个问题有什么建议吗


我也尝试过以TF-saved_模型格式导出,但该模型只预测NAN。我假设有更大的问题吗?

我也有同样的问题,我只上传了model.json文件,而没有上传同样由tensorflowjs_转换器创建的bin文件。确保已将model.json文件和.bin文件上载到同一文件夹中。model.json文件使用.bin文件来获取权重。

问题可能是由于Martjin指出的文件不足,或者是由于javaScript代码中的错误。

错误可能是指“downsample”函数下的顺序层。您是否尝试过在Conv2D层之前添加输入层或在其上添加形状?