Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Keras-LSTM最佳批量_Python_Tensorflow_Machine Learning_Keras - Fatal编程技术网

Python Keras-LSTM最佳批量

Python Keras-LSTM最佳批量,python,tensorflow,machine-learning,keras,Python,Tensorflow,Machine Learning,Keras,在LSTM网络中,我作为特征传递一个表单数组 X.shape (350000, 240, 1) 具有以下形式的二进制分类目标 y.shape (350000, 2) 如何估计最佳批量大小,以在不损失准确性的情况下最小化学习时间 以下是设置: model = Sequential() model.add(LSTM(25, input_shape=(240, 1))) model.add(Dropout(0.1)) model.add(Dense(2, activation=

在LSTM网络中,我作为特征传递一个表单数组

X.shape 
    (350000, 240, 1)
具有以下形式的二进制分类目标

y.shape 
    (350000, 2)
如何估计最佳批量大小,以在不损失准确性的情况下最小化学习时间

以下是设置:

model = Sequential()
model.add(LSTM(25, input_shape=(240, 1)))
model.add(Dropout(0.1))
model.add(Dense(2, activation='softmax'))
model.compile(loss="binary_crossentropy", optimizer="rmsprop")
model.fit(X_s, y_s, epochs=1000, batch_size=512, verbose=1, shuffle=False, callbacks=[EarlyStopping(patience=10)])

不幸的是,批量大小是一个超参数,您必须通过交叉验证来了解。在实践中,从一个非常大的数字(1024)开始,然后将其减半,直到看到性能有所提高

还有一些论文表明,最佳学习率和批量大小大致呈负相关: