Statistics ANN输出值不稳定,提高了精度

Statistics ANN输出值不稳定,提高了精度,statistics,neural-network,bioinformatics,pybrain,Statistics,Neural Network,Bioinformatics,Pybrain,我正试图开发一个人工神经网络,使用PyBrain对生物数据进行建模。My ANN编译并运行,但其准确度值非常低,从未超过~62%。从编码的角度来看,如何提高ANN的准确性?我注意到,每次,ANN的输出也不一样,即使测试数据集没有变化——是否有ANN不稳定的原因,我如何改进这一点 谢谢!:) 如果每次运行脚本时都创建新网络,则输出不同是正常的 每次创建连接时,请使用随机值(范围0到1)初始化连接的权重 您可以使用NetworkWriter保存您的ANN,并使用pybrain.tools.custo

我正试图开发一个人工神经网络,使用PyBrain对生物数据进行建模。My ANN编译并运行,但其准确度值非常低,从未超过~62%。从编码的角度来看,如何提高ANN的准确性?我注意到,每次,ANN的输出也不一样,即使测试数据集没有变化——是否有ANN不稳定的原因,我如何改进这一点


谢谢!:)

如果每次运行脚本时都创建新网络,则输出不同是正常的

每次创建连接时,请使用随机值(范围0到1)初始化连接的权重

您可以使用NetworkWriter保存您的ANN,并使用pybrain.tools.customxml中的NetworkReader读取它(请参阅代码文档以获取参考,pybrain API缺少一些东西)

您可以使用来调整培训过程。此外,您还可以将更多的培训时间应用到您的网络中


如果您提供您的代码,我可以说得更多。

您使用的是什么类型的网络?你使用什么类型的学习/优化?我使用PyBrain库中内置的反向传播算法,我的隐藏层使用tanh挤压函数。我希望这能回答这个问题——如果有帮助的话,我很乐意提供代码。谢谢!然而,有没有一种方法可以保存能够产生最高精度的迭代?我个人迭代动量值(从0到1步0.1,但它可以更小,如0.01,如果你有时间的话)和学习率(从0.1到1步0.1),我使用
NetworkWriter
保存在
testOnData()上得分最高的网络
来自
BackpropTrainer
课程。