Deep learning 在MXNet(而非FC层)上进行微调

Deep learning 在MXNet(而非FC层)上进行微调,deep-learning,conv-neural-network,mxnet,Deep Learning,Conv Neural Network,Mxnet,我是MXNet的新手,我想知道除了FC层之外,是否有人知道如何微调CNN中的更多层。我看到的所有示例都只在FC层上进行了微调。在Keras中,这可以很容易地完成,并且可以微调除FC块以外的更多CONVnet块: 如果我们只想微调FC块,我们将所有层的可训练性设置为false: layer.trainable=错误 如果我们想微调除FC层以外的更多ConnNet块,我们将这些层设置为layer.trainable=True: 我的问题是如何在MXNet中执行类似操作,答案取决于您使用的是命令

我是MXNet的新手,我想知道除了FC层之外,是否有人知道如何微调CNN中的更多层。我看到的所有示例都只在FC层上进行了微调。在Keras中,这可以很容易地完成,并且可以微调除FC块以外的更多CONVnet块:

如果我们只想微调FC块,我们将所有层的可训练性设置为false: layer.trainable=错误

如果我们想微调除FC层以外的更多ConnNet块,我们将这些层设置为layer.trainable=True:


我的问题是如何在MXNet中执行类似操作,答案取决于您使用的是命令式(Gluon)还是符号API

如果您正在使用命令式(Gluon)API: 您可以提供要训练的那些参数的子集,而不是使用所有参数(
net.collect_params()
)创建
glion.Trainer
。传递给培训师的
参数dict
中不存在的任何参数将保持冻结状态

如果您使用的是符号API:
在创建
模块
时,可以使用
固定参数名称
参数。可以提供与要冻结的参数名称匹配的正则表达式。检查示例。

答案取决于您使用的是命令式API(Gluon)还是符号API

如果您正在使用命令式(Gluon)API: 您可以提供要训练的那些参数的子集,而不是使用所有参数(
net.collect_params()
)创建
glion.Trainer
。传递给培训师的
参数dict
中不存在的任何参数将保持冻结状态

如果您使用的是符号API:
在创建
模块
时,可以使用
固定参数名称
参数。可以提供与要冻结的参数名称匹配的正则表达式。检查示例。

Hey@Azi,我建议添加一些您需要帮助的特定问题的示例。因此,用户很乐意提供帮助,但我们需要的问题是具体的,而不是一般性的。通常,这意味着添加您已经尝试过的代码。嘿@Azi,我建议添加一些您需要帮助的特定问题的示例。因此,用户很乐意提供帮助,但我们需要的问题是具体的,而不是一般性的。通常,这意味着添加您已经尝试过的代码。