Tensorflow Keras Convs2为什么在预测中使用len(输入文本)?

Tensorflow Keras Convs2为什么在预测中使用len(输入文本)?,tensorflow,keras,seq2seq,Tensorflow,Keras,Seq2seq,我正在运行ConvS2S示例,模型训练得很好,但是推理代码不够清楚,为什么预测数组具有输入文本的长度?我的预测是胡言乱语,我显然做错了什么,因为我的模型似乎学得相当好 提前谢谢 据我所知,预测数组应该是这样的: 原始来源如下: nb_示例=100 in_编码器=编码器输入_数据[:nb_示例] in_decoder=np.zero((len(输入_文本),max_decoder seq长度,num_decoder_标记),dtype='float32') 在_解码器[:,0,目标_令牌_索引[“

我正在运行ConvS2S示例,模型训练得很好,但是推理代码不够清楚,为什么预测数组具有输入文本的长度?我的预测是胡言乱语,我显然做错了什么,因为我的模型似乎学得相当好

提前谢谢

据我所知,预测数组应该是这样的:

原始来源如下:

nb_示例=100
in_编码器=编码器输入_数据[:nb_示例]
in_decoder=np.zero((len(输入_文本),max_decoder seq长度,num_decoder_标记),dtype='float32')
在_解码器[:,0,目标_令牌_索引[“\t”]]=1中
predict=np.zero((len(输入文本),max_解码器长度),dtype='float32')

但是为什么要使用
len(输入文本)

您可能需要添加指向您所指的seq2seq示例的指针。有多种实现。我阅读代码片段输入文本的方式是一系列短语;如果是这种情况,那么你需要对每个句子进行预测,因此输出将被塑造为(句子数量,句子长度)。Keras示例中的示例是:input_文本是一个包含所有输入示例的列表,我的问题是,为什么推理需要这样做?len(input_文本)实际上是错误的。这应该是NBU的例子。这其实并不重要,因为预测变量会在预测循环中被覆盖。谢谢,我认为这是一个非常好的答案。谢谢,我正在用这些更改进行一些测试。您可能需要添加指向您所指的seq2seq示例的指针。有多种实现。我阅读代码片段输入文本的方式是一系列短语;如果是这种情况,那么你需要对每个句子进行预测,因此输出将被塑造为(句子数量,句子长度)。Keras示例中的示例是:input_文本是一个包含所有输入示例的列表,我的问题是,为什么推理需要这样做?len(input_文本)实际上是错误的。这应该是NBU的例子。这并不重要,因为预测变量会在预测循环中被覆盖。谢谢,我认为这是一个非常好的答案。谢谢,我现在正在用这些更改进行一些测试。