Encoding 什么';使用卷积神经网络时,文本编码之间的区别是什么?

Encoding 什么';使用卷积神经网络时,文本编码之间的区别是什么?,encoding,neural-network,convolution,text-classification,Encoding,Neural Network,Convolution,Text Classification,假设我们有一个热编码的数据[a,d,c,a,b],即 a:1,0,0,0 b:0,1,0,0 c:0,0,1,0 d:0,0,0,1, So the [a,d,c,a,b] is [1,0,0,0,0,0,0,1,0,0,1,0,1,0,0,0,0,1,0,0] 当我输入到嵌入层时。 对于另一种编码类型,[a,d,c,a,b]可以用,dim=4表示 [0,3,2,0,1] ,然后输入到嵌入层 那么这两种编码类型之间到底有什么区别呢?有没有论文比较这两种编码方式?我刚刚发现“Keras中

假设我们有一个热编码的数据[a,d,c,a,b],即

a:1,0,0,0
b:0,1,0,0
c:0,0,1,0
d:0,0,0,1,

So the [a,d,c,a,b] is 
[1,0,0,0,0,0,0,1,0,0,1,0,1,0,0,0,0,1,0,0] 
当我输入到嵌入层时。 对于另一种编码类型,[a,d,c,a,b]可以用,dim=4表示

[0,3,2,0,1]
,然后输入到嵌入层

那么这两种编码类型之间到底有什么区别呢?有没有论文比较这两种编码方式?我刚刚发现“Keras中的一个热编码”是第二种类型