Machine learning 沃帕瓦比奇怪的特征很重要

Machine learning 沃帕瓦比奇怪的特征很重要,machine-learning,logistic-regression,vowpalwabbit,Machine Learning,Logistic Regression,Vowpalwabbit,我发现,在培训期间,我的大众车型在其日志中显示了非常大的(比我的功能数量多得多)功能数量 我试着用一些小例子来重现它: 简单测试: -1 | 1 2 3 1 | 3 4 5 然后,“vw simple.test”命令说它使用了8个特性+一个特征是恒定的,但另一个特征是什么?在我真正的exmaple中,我的功能和wv中使用的功能之间的区别是abot x10更多 total feature number显示所有观察到的示例的特征计数总和。在你的例子中,它是2*(3+1常数)=8。当前示例中的特

我发现,在培训期间,我的大众车型在其日志中显示了非常大的(比我的功能数量多得多)功能数量

我试着用一些小例子来重现它:

简单测试:

-1 | 1 2 3
1  | 3 4 5
然后,“vw simple.test”命令说它使用了8个特性+一个特征是恒定的,但另一个特征是什么?在我真正的exmaple中,我的功能和wv中使用的功能之间的区别是abot x10更多


total feature number
显示所有观察到的示例的特征计数总和。在你的例子中,它是2*(3+1常数)=8。当前示例中的特征数量显示在
当前特征
列中。请注意,默认情况下,屏幕上只打印第2个示例。一般情况下,观察到的特征数量可能不相等。

总特征数量
显示所有观察到的示例的特征计数总和。在你的例子中,它是2*(3+1常数)=8。当前示例中的特征数量显示在
当前特征
列中。请注意,默认情况下,屏幕上只打印第2个示例。一般情况下,观察到的特征数量可能不相等。

总特征数量
显示所有观察到的示例的特征计数总和。在你的例子中,它是2*(3+1常数)=8。当前示例中的特征数量显示在
当前特征
列中。请注意,默认情况下,屏幕上只打印第2个示例。一般情况下,观察到的特征数量可能不相等。

总特征数量
显示所有观察到的示例的特征计数总和。在你的例子中,它是2*(3+1常数)=8。当前示例中的特征数量显示在
当前特征
列中。请注意,默认情况下,屏幕上只打印第2个示例。一般来说,观测值的特征数可能不相等

Num weight bits = 18
learning rate = 0.5
initial_t = 0
power_t = 0.5
using no cache
Reading datafile = t
num sources = 1
average    since         example     example  current  current  current
loss       last          counter      weight    label  predict features

finished run
number of examples = 2
weighted example sum = 2
weighted label sum = 3
average loss = 1.9179
best constant = 1.5
total feature number = 8 !!!!