Machine learning 为什么在卷积神经网络中使用卷积层后的激活函数?

Machine learning 为什么在卷积神经网络中使用卷积层后的激活函数?,machine-learning,conv-neural-network,activation,Machine Learning,Conv Neural Network,Activation,我是机器学习的新手,关于卷积神经网络,我不了解的一点是,为什么我们在卷积层之后进行激活。因为卷积后面跟着卷积就是卷积。因此,不介入某种类型的非卷积层(如relu层)的任意深度的卷积神经网络基本上等同于只有一层的卷积神经网络。这是因为组合线性变换是线性的: y = m1*(m2*x + b2) + b1 = m1 * m2 * x + m1 * b2 + b1 这只是一个线性函数。。。既然你只能学一个而且完全一样,为什么还要学两个呢?这种逻辑甚至适用于局部线性函数(卷积是局部线性的)。因此,

我是机器学习的新手,关于卷积神经网络,我不了解的一点是,为什么我们在卷积层之后进行激活。

因为卷积后面跟着卷积就是卷积。因此,不介入某种类型的非卷积层(如relu层)的任意深度的卷积神经网络基本上等同于只有一层的卷积神经网络。这是因为组合线性变换是线性的:

y = m1*(m2*x + b2) + b1
  = m1 * m2 * x + m1 * b2 + b1

这只是一个线性函数。。。既然你只能学一个而且完全一样,为什么还要学两个呢?这种逻辑甚至适用于局部线性函数(卷积是局部线性的)。因此,无论是卷积NN(还是普通NN),我们都必须在线性层之间做一些非线性的事情。一个非常简单的非线性函数是,它是一个基本的“弯曲”。

因为卷积后面跟着卷积就是卷积。因此,不介入某种类型的非卷积层(如relu层)的任意深度的卷积神经网络基本上等同于只有一层的卷积神经网络。这是因为组合线性变换是线性的:

y = m1*(m2*x + b2) + b1
  = m1 * m2 * x + m1 * b2 + b1

这只是一个线性函数。。。既然你只能学一个而且完全一样,为什么还要学两个呢?这种逻辑甚至适用于局部线性函数(卷积是局部线性的)。因此,无论是卷积NN(还是普通NN),我们都必须在线性层之间做一些非线性的事情。一个非常简单的非线性函数是基本的“弯曲”。CNN是神经网络的一种。神经网络背后的基本思想是,当你有足够的输入时,神经元就会在计算激活函数的基础上被触发。 基本的神经网络被称为多重后感知器(MLP),在这个网络中,你有X维的输入,你把它传递到第一个MLP层,然后这个过程继续到下一个层,最后在最后有一个神经元,在那里计算输出,这可能是基于问题的分类或回归


在输入图像上应用过滤器/内核后,以类似的方式进行。之后,您需要在卷积图像上应用元素激活函数,如relu或sigmoid。如果您有足够的输入作为其他层的输入,激活函数将生成一个输出。

CNN是神经网络的一种。神经网络背后的基本思想是,当你有足够的输入时,神经元就会在计算激活函数的基础上被触发。 基本的神经网络被称为多重后感知器(MLP),在这个网络中,你有X维的输入,你把它传递到第一个MLP层,然后这个过程继续到下一个层,最后在最后有一个神经元,在那里计算输出,这可能是基于问题的分类或回归


在输入图像上应用过滤器/内核后,以类似的方式进行。之后,您需要在卷积图像上应用元素激活函数,如relu或sigmoid。如果您有足够的输入作为其他层的输入,则激活函数将生成一个输出。

此问题更适合于或,因为它与编程无关。此问题更适合于或,因为它与编程无关