Neural network 基于零的Log-Sigmoid函数与Log-Sigmoid函数的区别

Neural network 基于零的Log-Sigmoid函数与Log-Sigmoid函数的区别,neural-network,Neural Network,我目前已经开始在一个项目的框架中使用NeuroXL预测器软件。我也在NNs的基础上进行了研究,了解到S形函数是最适合应用于网络的激活函数类型。我知道如何区分Log Sigmoid和双曲正切,因为Sigmoid函数-Log Sigmoid允许输出值介于0和+1之间,而tanh允许值介于-1和+1之间。NeuroXL预测器软件提供了一种额外的激活功能,即基于零的对数乙状结肠功能。认为我在这里,我满足了我的数学知识的极限-你们中的某人知道零基的确切含义吗?它们是否意味着sigmoid函数的斜率为0?这

我目前已经开始在一个项目的框架中使用NeuroXL预测器软件。我也在NNs的基础上进行了研究,了解到S形函数是最适合应用于网络的激活函数类型。我知道如何区分Log Sigmoid和双曲正切,因为Sigmoid函数-Log Sigmoid允许输出值介于0和+1之间,而tanh允许值介于-1和+1之间。NeuroXL预测器软件提供了一种额外的激活功能,即基于零的对数乙状结肠功能。认为我在这里,我满足了我的数学知识的极限-你们中的某人知道零基的确切含义吗?它们是否意味着sigmoid函数的斜率为0?这是否与隐藏层中的神经元数量为0这一事实有关


对于这个非常基本的问题,我很抱歉,但是我找不到基于零的Log Sigmoid函数的定义。我将感谢任何帮助和提前感谢

这个问题不是关于一个实际的编程问题,所以它可能更多的是关于这个主题。