Tensorflow 登录和标签必须具有相同的第一个维度

Tensorflow 登录和标签必须具有相同的第一个维度,tensorflow,lstm,kaggle,Tensorflow,Lstm,Kaggle,我正在尝试使用tensorflow和lstm在kaggle创建一个配方生成器。但我完全陷入了与尺寸有关的事情中。有人能给我指出正确的方向吗 非常感谢 我认为问题在于 training_batches[0][1] 是一个列表而不是numpy.array,您应该相应地修改create_数据集…我认为问题在于 training_batches[0][1] 是一个列表而不是一个numpy.array,您应该相应地修改create_数据集…以下是从seq2seq.sequence_loss(lo

我正在尝试使用tensorflow和lstm在kaggle创建一个配方生成器。但我完全陷入了与尺寸有关的事情中。有人能给我指出正确的方向吗


非常感谢

我认为问题在于

training_batches[0][1] 

是一个列表而不是numpy.array,您应该相应地修改create_数据集…

我认为问题在于

training_batches[0][1] 

是一个列表而不是一个numpy.array,您应该相应地修改create_数据集…

以下是从
seq2seq.sequence_loss(logits,targets,weights)
实现中摘录的内容,您可以在代码中使用它:

with ops.name_scope(name, "sequence_loss", [logits, targets, weights]):
    num_classes = array_ops.shape(logits)[2]
    logits_flat = array_ops.reshape(logits, [-1, num_classes])
    targets = array_ops.reshape(targets, [-1])
    if softmax_loss_function is None:
      crossent = nn_ops.sparse_softmax_cross_entropy_with_logits(
labels=targets, logits=logits_flat)
我相信您看到的错误是源于代码中的最后一行。错误消息是不言自明的:

InvalidArgumentError:登录名和标签必须具有相同的首字母 尺寸标注,已获取logits形状[86714]和标签形状[2]


logits_flat
目标的第一维度大小必须相同。这直接转化为您对
seq2seq.sequence\u loss
的输入:
目标
logits
变量的前两个维度必须相等。因此,要么两个变量的批处理数量不同,要么序列长度发生了变化(尽管这很奇怪)。

下面是
seq2seq.sequence\u loss(logits,targets,weights)
实现的一个摘录,您在代码中使用它:

with ops.name_scope(name, "sequence_loss", [logits, targets, weights]):
    num_classes = array_ops.shape(logits)[2]
    logits_flat = array_ops.reshape(logits, [-1, num_classes])
    targets = array_ops.reshape(targets, [-1])
    if softmax_loss_function is None:
      crossent = nn_ops.sparse_softmax_cross_entropy_with_logits(
labels=targets, logits=logits_flat)
我相信您看到的错误是源于代码中的最后一行。错误消息是不言自明的:

InvalidArgumentError:登录名和标签必须具有相同的首字母 尺寸标注,已获取logits形状[86714]和标签形状[2]


logits_flat
目标的第一维度大小必须相同。这直接转化为您对
seq2seq.sequence\u loss
的输入:
目标
logits
变量的前两个维度必须相等。所以,你不是在使用两个变量的相同批次,或者是你的序列长度改变了(这将是奇怪的)。

你能考虑在帖子中直接发布你的代码的相关部分(链接会随着时间的推移被打破/更新,这对未来的读者没有用)添加你试图解决的问题?你能考虑把你的代码的相关部分直接张贴在帖子中(链接会随着时间的推移被打破/更新,这对未来的读者没有用),并添加你试图解决的问题吗?