Python scikit neuralnetwork fitting中的有效_大小、f_稳定、n_稳定到底有什么作用?
在scikit神经网络配件中,Python scikit neuralnetwork fitting中的有效_大小、f_稳定、n_稳定到底有什么作用?,python,scikit-learn,neural-network,perceptron,scikits,Python,Scikit Learn,Neural Network,Perceptron,Scikits,在scikit神经网络配件中,valid\u size,f\u stable,n\u stable到底做了什么 我尝试使用scikit neuralnetwork解决回归问题。我已经阅读了我能找到的所有文档,但我不太理解n\u稳定、f\u稳定、和有效大小输入参数的含义 如果我们使用n_stable=100,f_stable=.001,以及valid_size=.1,这是否意味着它将[1]将集合分成90%的训练;[2] 使用梯度下降法进行步骤(改变参数);[3] 然后对另外10%的数据进行测试;[
valid\u size
,f\u stable
,n\u stable
到底做了什么
我尝试使用scikit neuralnetwork解决回归问题。我已经阅读了我能找到的所有文档,但我不太理解n\u稳定、f\u稳定、
和有效大小
输入参数的含义
如果我们使用n_stable=100
,f_stable=.001
,以及valid_size=.1
,这是否意味着它将[1]将集合分成90%的训练;[2] 使用梯度下降法进行步骤(改变参数);[3] 然后对另外10%的数据进行测试;[4] 如果该测试的均方误差小于.001,那么它会将迭代计算到n_稳定配额100——是吗?还是别的什么
更一般地说,这与
谢谢 sknn github页面的维护人员要求我将此作为一个问题发布。这里有一些解释