Artificial intelligence 当使用ReLU时,如何确定神经网络最后一层的范围
我对神经网络比较陌生。 Atm我正在尝试编程一个神经网络,用于0到10之间的数字的简单图像识别。 我的目标激活函数是ReLU(校正线性单位) 使用sigmoid函数,很清楚您最终如何确定某个情况的概率(因为它介于0和1之间) 但据我所知,使用ReLU我们没有这些限制,但最终可以得到任何值,作为之前“神经元”的总和。 那么这通常是如何解决的呢Artificial intelligence 当使用ReLU时,如何确定神经网络最后一层的范围,artificial-intelligence,conv-neural-network,relu,Artificial Intelligence,Conv Neural Network,Relu,我对神经网络比较陌生。 Atm我正在尝试编程一个神经网络,用于0到10之间的数字的简单图像识别。 我的目标激活函数是ReLU(校正线性单位) 使用sigmoid函数,很清楚您最终如何确定某个情况的概率(因为它介于0和1之间) 但据我所知,使用ReLU我们没有这些限制,但最终可以得到任何值,作为之前“神经元”的总和。 那么这通常是如何解决的呢 我是不是只取最大的值,然后说概率是100% 我是不是把所有的价值加起来,然后说这是100% 还是有另一个我看不见的自动取款机 我希望我的问题可以理解。
- 我是不是只取最大的值,然后说概率是100%
- 我是不是把所有的价值加起来,然后说这是100%
- 还是有另一个我看不见的自动取款机
提前感谢您抽出时间来看我的问题。您不能使用ReLU函数作为分类任务的输出函数,因为正如您所提到的,它的范围不能表示概率0到1。这就是为什么它只用于回归任务和隐藏层 对于二进制分类,必须使用范围在0到1之间的输出函数,例如sigmoid。在您的情况下,您需要一个多维扩展,如softmax函数