Python pybrain activate()输出表示法

Python pybrain activate()输出表示法,python,pybrain,Python,Pybrain,我使用pybrain构建了这个示例: from pybrain.tools.shortcuts import buildNetwork from pybrain.datasets import SupervisedDataSet from pybrain.supervised.trainers import BackpropTrainer net = buildNetwork(3, 3, 1) dataSet = SupervisedDataSet(3, 1) dataSet.addSamp

我使用pybrain构建了这个示例:

from pybrain.tools.shortcuts import buildNetwork
from pybrain.datasets import SupervisedDataSet
from pybrain.supervised.trainers import BackpropTrainer

net = buildNetwork(3, 3, 1)

dataSet = SupervisedDataSet(3, 1)
dataSet.addSample((0, 0, 0), (0))
dataSet.addSample((1, 1, 1), (0))
dataSet.addSample((1, 0, 0), (1))
dataSet.addSample((0, 1, 0), (1))
dataSet.addSample((0, 0, 1), (1))

trainer = BackpropTrainer(net, dataSet)

trainer.trainUntilConvergence()

result = net.activate([0, 0, 0])
print result
输出为:[0.10563189]

我不明白activate()的输出是什么。网络是经过训练的,我用一个训练样本测试它的输出,所以我期望的值和训练样本中的值完全一样。输入[0,0,0]应该得到输出0。我错过了什么?如何获得有效的结果


更让人困惑的是,每次我运行这段代码,都会得到不同的结果。我显然做错了什么。它是什么?

训练网络直到收敛并不意味着训练集被完全记住。原因有很多:隐藏层的大小、激活函数、学习速率等。所有这些参数都需要调整。

你说得绝对正确。我通过在循环中学习来替换trainUntilConvergence(),直到达到定义的错误。即使把内部神经元减少到2个,我现在也得到了非常精确的结果。