Deep learning 同一CNN模型是否需要不同数据集的不同学习率?

Deep learning 同一CNN模型是否需要不同数据集的不同学习率?,deep-learning,conv-neural-network,image-segmentation,tf.keras,hyperparameters,Deep Learning,Conv Neural Network,Image Segmentation,Tf.keras,Hyperparameters,我使用卷积神经网络模型进行医学图像分割。当我训练模型(例如提拉米苏模型)时,我尝试了论文中推荐的相同学习率,但是,我得到了糟糕的结果 我关心的是,当我们对不同的数据集使用模型时,是否需要找到不同的最佳学习率。例如,在本例中,他们使用CamVid数据集(街道、汽车、人等),而我使用的是医学图像。虽然可能有一些参数对大多数情况下都能很好地工作(通常是几个库的默认值),但最佳选择取决于数据集。使用论文中的内容是一个很好的起点,可以建立一个基线,但不要让它阻止你尝试改变它们 另一个重要的点是损失函数,这

我使用卷积神经网络模型进行医学图像分割。当我训练模型(例如提拉米苏模型)时,我尝试了论文中推荐的相同学习率,但是,我得到了糟糕的结果


我关心的是,当我们对不同的数据集使用模型时,是否需要找到不同的最佳学习率。例如,在本例中,他们使用CamVid数据集(街道、汽车、人等),而我使用的是医学图像。

虽然可能有一些参数对大多数情况下都能很好地工作(通常是几个库的默认值),但最佳选择取决于数据集。使用论文中的内容是一个很好的起点,可以建立一个基线,但不要让它阻止你尝试改变它们

另一个重要的点是损失函数,这一损失函数可能适用于分割汽车(它们很大,占图像的20%以上),也可能不适用于文本(小,占图像的1%以下)


如果您有一个二进制分割,那么使用阈值来决定像素是否是您想要的类别也很重要。

非常感谢@juvian。如果你知道wich提到的任何一篇文章,这都会很有帮助。在阅读了几篇文章后,你开始注意到许多人使用几乎相同的架构,但是他们的损失函数/参数发生了变化,产生了不同的结果。如果有人感兴趣的话,你可以尝试搜索。