Python Keras/Tensorflow中的超参数调谐问题
我最近在学习深度学习,主要依靠Andrew Ng在Coursera上的深度学习专业 我想建立我自己的模型,以99%的准确率分类Python Keras/Tensorflow中的超参数调谐问题,python,tensorflow,machine-learning,keras,deep-learning,Python,Tensorflow,Machine Learning,Keras,Deep Learning,我最近在学习深度学习,主要依靠Andrew Ng在Coursera上的深度学习专业 我想建立我自己的模型,以99%的准确率分类MNIST(简单的MLP模型,而不是CNN)。因此,我使用KerasClassifier包装我的模型,并使用GridsearchCV微调超参数(包括隐藏层编号、单位编号、退出率等) 然而,当我谷歌“微调”时,大多数结果主要是“转移学习”,这只是调整学习速度、输出层数或冻结层数 我知道这些著名的模型只需稍作改动就能解决许多问题。但是,如果我想从头开始构建一个小模型来处理一个
MNIST
(简单的MLP模型,而不是CNN)。因此,我使用KerasClassifier
包装我的模型,并使用GridsearchCV
微调超参数(包括隐藏层编号、单位编号、退出率等)
然而,当我谷歌“微调”时,大多数结果主要是“转移学习”,这只是调整学习速度、输出层数或冻结层数
我知道这些著名的模型只需稍作改动就能解决许多问题。但是,如果我想从头开始构建一个小模型来处理一个特殊问题,那么常见/最佳实践是什么
因此,我的问题主要是关于微调模型的常见/最佳实践:
RandomizedSearchCV
/GridSearchCV
,或者hyperas
)GridSearchCV
,它极大地增加了培训时间,但帮助不大)