Networking 卷积神经网络回归的结构

Networking 卷积神经网络回归的结构,networking,machine-learning,deep-learning,regression,conv-neural-network,Networking,Machine Learning,Deep Learning,Regression,Conv Neural Network,我想使用AlexNet体系结构来解决回归问题,该问题最初用于分类任务。 此外,对于学习步骤,我想包括一个批量大小参数 所以我有几个问题: 为了实现回归,我需要在网络体系结构中改变什么?正是在最后一层,损失函数或其他东西 如果我使用5的批量大小,最后一层的输出大小是多少 谢谢 分享以下内容会很有帮助: Q框架:您正在使用哪个深度学习框架和/或共享您需要帮助修改的特定代码 A:例如TensorFlow、PyTorch、Keras等 Q损失类型,输出大小:您试图通过回归实现的任务是什么?这将影响

我想使用AlexNet体系结构来解决回归问题,该问题最初用于分类任务。 此外,对于学习步骤,我想包括一个批量大小参数

所以我有几个问题:

  • 为了实现回归,我需要在网络体系结构中改变什么?正是在最后一层,损失函数或其他东西
  • 如果我使用5的批量大小,最后一层的输出大小是多少

谢谢

分享以下内容会很有帮助:

  • Q框架:您正在使用哪个深度学习框架和/或共享您需要帮助修改的特定代码

    A:例如TensorFlow、PyTorch、Keras等

  • Q损失类型,输出大小:您试图通过回归实现的任务是什么?这将影响您想要使用的损耗类型、输出维度、VGGnet的微调等

    A:例如,灰度图像的自动着色(这里是一个)是一个回归任务的示例,您可以尝试从单色图像回归RGB通道像素值。您可能会有L2损失(或其他一些性能改进损失)。输出大小应独立于批次大小,它将由最后一层的输出大小决定(即
    预测op
    )。批量大小是一个培训参数,您可以更改它,而无需更改模型体系结构或输出维度


谢谢您的回答!-我正在研究TensorFlow 1.3——我想用回归法来估计年龄,所以在输出中我只期望一个年龄。因为我有一个小数据集,所以我对网络进行了微调。我的工作基础是[.在这种情况下,最后一个完全连接/密集的层可以被输出维度为1的层替换,并且损失可能是预测输出和实际年龄之间的L2损失。但是,在Imagenet上训练的预训练AlexNet对于视觉任务非常有用,在视觉任务中,可以通过微调或转移学习受益。我建议重新训练评估使用Imagenet预训练网络进行多年回归任务的必要性。仅供参考-该链接似乎是断断续续的,很好的链接。好吧!如果我理解清楚,层fc8(您可以打开名为“alexnet.py”的文件)可以替换为“self.fc8=fc(dropout7,4096,num_out=1,relu=True,name='fc8')”?你认为使用VGG更好吗?当我谈到使用预训练的CNN架构的好处时,我应该更清楚。使用预训练的网络和微调的好处是因为这有助于减少训练时间,并有可能提高视觉任务的性能。这是因为人们期望CNN体系结构中的多个层学习了分层表示,如早期层中的边缘检测器和gabor滤波器,后期层中的更复杂结构等。利用这些权重为视觉任务(如定位、检测或分割等)提供了很大的优势。然而,在回归年龄的任务中,I我不确定使用预训练权重和微调是否有优势。如果结果证明它有益,那将是一个很好的实验和有趣的结果,尽管我对此表示怀疑。