Machine learning Tensorflow中嵌入层的工作原理

Machine learning Tensorflow中嵌入层的工作原理,machine-learning,deep-learning,nlp,tensorflow,python,Machine Learning,Deep Learning,Nlp,Tensorflow,Python,有人能给我解释一下输入和输出以及下面提到的层的工作吗 model.add(Embedding(total_words, 64, input_length=max_sequence_len-1)) 总数=263字 最大序列长度=11 是64,维度的数目 为什么这一层的输出(无、10、64) 每个单词不应该是64维向量,即(None,263,64)在嵌入层中,第一个参数表示输入维(通常具有相当大的维度)。第二个参数表示输出维度,即约化向量的维度。第三个参数是序列长度。本质上,嵌入层只是学习形状(输

有人能给我解释一下输入和输出以及下面提到的层的工作吗

model.add(Embedding(total_words, 64, input_length=max_sequence_len-1))
总数=263字

最大序列长度=11

是64,维度的数目

为什么这一层的输出(无、10、64)


每个单词不应该是64维向量,即(None,263,64)

嵌入层中,第一个参数表示输入维(通常具有相当大的维度)。第二个参数表示输出维度,即约化向量的维度。第三个参数是序列长度。本质上,嵌入层只是学习形状
(输入尺寸,输出尺寸)
的查找表。该层的权重反映了该形状。然而,层的输出当然是形状
(输出尺寸,序列长度)
;输入序列中每个元素的一维缩减嵌入向量。您期望的形状实际上是嵌入层权重的形状。

嵌入层中,第一个参数表示输入维度(通常具有相当大的维度)。第二个参数表示输出维度,即约化向量的维度。第三个参数是序列长度。本质上,嵌入层只是学习形状
(输入尺寸,输出尺寸)
的查找表。该层的权重反映了该形状。然而,层的输出当然是形状
(输出尺寸,序列长度)
;输入序列中每个元素的一维缩减嵌入向量。您期望的形状实际上是嵌入层权重的形状。

您可以找到有关Tensorflow嵌入层的所有信息

前两个参数是
input\u dimension
output\u dimension

  • 输入维度基本上表示模型的词汇表大小。您可以通过使用
    Tokenizer()
    函数的
    word\u index
    函数找到这一点
  • 输出维度将是下一个
    密集层的输入维度
嵌入层的输出形式为
(批大小、输入长度、输出尺寸)
。但是,由于您指定了输入长度参数,因此图层输入的形式将为
(批处理,输入长度)
。这就是为什么输出的形式是(无、10、64)


希望这能消除你的疑虑☺️

您可以找到有关Tensorflow嵌入层的所有信息

前两个参数是
input\u dimension
output\u dimension

  • 输入维度基本上表示模型的词汇表大小。您可以通过使用
    Tokenizer()
    函数的
    word\u index
    函数找到这一点
  • 输出维度将是下一个
    密集层的输入维度
嵌入层的输出形式为
(批大小、输入长度、输出尺寸)
。但是,由于您指定了输入长度参数,因此图层输入的形式将为
(批处理,输入长度)
。这就是为什么输出的形式是(无、10、64)


希望这能消除你的疑虑☺️

嗨。这似乎是一个编程问题。对吗?在这种情况下,这是离题的,您应该在堆栈溢出时询问它。请读,你好。这似乎是一个编程问题。对吗?在这种情况下,这是离题的,您应该在堆栈溢出时询问它。请读一读。