Matlab 神经网络中Sigmoid激活函数斜率的变化

Matlab 神经网络中Sigmoid激活函数斜率的变化,matlab,neural-network,activation-function,Matlab,Neural Network,Activation Function,我目前正试图确定一种方法,通过一些标量值,在MATLAB的神经网络中调整sigmoid激活函数的斜率。例如,与使用tanh(x)相反,我将使用tanh(3x)作为我的激活函数(如果这看起来动机不好,它是为了完成一项任务…),我知道我可以编写一个自定义激活函数,通过修改文件夹“+tansig”中的apply.m文件来实现这一点,但我想知道是否有可能通过简单地乘以标量值3来绕过这一步,因为在应用激活函数之前,网络中会出现一个额外的“层”。否,您必须编写自己的激活函数@(x)logsig(3*x)但您

我目前正试图确定一种方法,通过一些标量值,在MATLAB的神经网络中调整sigmoid激活函数的斜率。例如,与使用tanh(x)相反,我将使用tanh(3x)作为我的激活函数(如果这看起来动机不好,它是为了完成一项任务…),我知道我可以编写一个自定义激活函数,通过修改文件夹“+tansig”中的apply.m文件来实现这一点,但我想知道是否有可能通过简单地乘以标量值3来绕过这一步,因为在应用激活函数之前,网络中会出现一个额外的“层”。

否,您必须编写自己的激活函数
@(x)logsig(3*x)
但您可以一次将其分配给整个图层。 术语“层”是指在网络中同样深的一组神经元。将单个神经元(在一层内)的每个输入相加,并将结果输入激活函数。因此,在应用激活功能之前,不能添加与原始输入相乘的输入。如果你想改变输入,你可以改变偏置项,但它仍然是一个加法

请注意,激活函数的缩放通常是不必要的,因为学习的权重将自动调整为该值。尽管如此,如果这是一项任务,只需使用上面的匿名函数handle快速解决问题