Neural network 一个热编码用于广域&;DNNLinearCombinedClassifier的深度模型和归一化

Neural network 一个热编码用于广域&;DNNLinearCombinedClassifier的深度模型和归一化,neural-network,tensorflow,deep-learning,recommendation-engine,supervised-learning,Neural Network,Tensorflow,Deep Learning,Recommendation Engine,Supervised Learning,我开始使用Tensorflow,现在我有两个领域的问题,就像在中一样,使用Tensorflow 如果我使用分类列,如tf.contrib.layers.sparse\u column\u with\u hash\u bucket(“教育”,hash\u bucket\u size=1000):使用模型a对其背面的此功能进行一次热编码?或者我可以应用一个热编码吗?这种散列代替一个热编码有什么好处吗?散列是什么:我是否必须将Hash\u bucket\u size设置为与此功能的不同值一样高的值 第

我开始使用Tensorflow,现在我有两个领域的问题,就像在中一样,使用Tensorflow

  • 如果我使用分类列,如
    tf.contrib.layers.sparse\u column\u with\u hash\u bucket(“教育”,hash\u bucket\u size=1000)
    :使用模型a对其背面的此功能进行一次热编码?或者我可以应用一个热编码吗?这种散列代替一个热编码有什么好处吗?散列是什么:我是否必须将
    Hash\u bucket\u size
    设置为与此功能的不同值一样高的值

  • 第二个问题是关于连续实值特征的规范化。Cheng等人写道,他们的“连续实值特征被归一化为[0,1]”。如果我使用
    tf.contrib.learn.DNNLinearCombinedClassifier
    这会自动完成吗?还是由我来实施这些规范化

  • 谢谢你的支持