Machine learning 神经网络:处理不可用的输入(缺失或不完整的数据)

Machine learning 神经网络:处理不可用的输入(缺失或不完整的数据),machine-learning,neural-network,Machine Learning,Neural Network,希望这个周末你能从我这里得到最后一个NN问题,但接下来是:) 有没有一种方法可以处理你“并不总是知道”的输入。。。所以它不会以某种方式影响权重 苏。。。如果我问某人是男性还是女性,而他们不愿意回答,有没有办法忽略这些输入?也许把它放在正中?(假设0.5?时输入为1,0) 多亏了神经网络对噪音有相当的抵抗力,这是它们的一大优势。不过,您可能希望尝试将输入置于(-1.0,1.0)位置,而将0作为非输入。这样,来自该神经元的权重输入为0.0,这意味着那里不会发生学习 可能是我有过的最好的书,不幸的是没

希望这个周末你能从我这里得到最后一个NN问题,但接下来是:)

有没有一种方法可以处理你“并不总是知道”的输入。。。所以它不会以某种方式影响权重

苏。。。如果我问某人是男性还是女性,而他们不愿意回答,有没有办法忽略这些输入?也许把它放在正中?(假设0.5?时输入为1,0)


多亏了

神经网络对噪音有相当的抵抗力,这是它们的一大优势。不过,您可能希望尝试将输入置于(-1.0,1.0)位置,而将0作为非输入。这样,来自该神经元的权重输入为0.0,这意味着那里不会发生学习


可能是我有过的最好的书,不幸的是没有完成(还!),是西蒙·S·海金的《神经网络和学习机器》。在这本书中,他谈到了各种各样的问题,包括你应该如何分配你的输入/训练集以获得最佳训练,等等。这是一本非常棒的书

您可能知道或怀疑这一点,但没有统计依据可以通过对可能值范围进行平均来猜测或提供缺失值,等等

特别是对于NN,有很多技术可用。我使用的技术——我编写的技术——是一种更简单的技术,但它有坚实的统计基础,至今仍在使用。描述它的学术论文


该技术的理论基础是incomlete数据的加权积分。实际上,不计算积分,而是用高斯基函数网络的闭合形式解来近似积分。正如你在论文中看到的(这是一个逐步的解释,在你的backprop算法中实现起来很简单。

听起来是个好主意:)自从我第一次对安感兴趣以来,我一直在寻找一些关于安的好书。。。我现在正在积攒一个小书架:)我得留心这本。谢谢那篇文章,从标题上看,听起来正是我要找的。明天早上我要看一眼。也谢谢你:)没问题——如果你有一种特定的语言,我可能会建议更多的参考资料。(我也会编辑你的帖子,只是为了添加“机器学习”标签,如果你不介意的话。继续:我用C++来为我的ANN引擎。感谢您的大量帮助:)此答案中的链接现在已失效。你有更新过的链接或论文标题吗?谷歌学者返回了该论文的链接,它仍然有效