Function 有Avg池和ReLU的CNN是一个奇怪的功能吗?

Function 有Avg池和ReLU的CNN是一个奇怪的功能吗?,function,deep-learning,conv-neural-network,Function,Deep Learning,Conv Neural Network,对于每个输入x,我们从CNN得到输出h(x,Para),其中h是CNN,Para是所有CNN参数的串联 然后我很好奇h是否是一个奇数函数,也就是说,在大多数现代CNN架构中,如VGG或ResNet中,h(x,Para)=-h(-x,Para) 如果没有,是否可以将其设置为奇数函数 否。 一般来说,神经网络具有近似的功能。当数据改变时,它的权重也会改变,这意味着NN不是一个固定的函数。你可以这样想象:NN不是3x+y-5=0,而是ax+by+c=0,你将学习a、b、c,它们最适合数据。 你的问题完

对于每个输入x,我们从CNN得到输出h(x,Para),其中h是CNN,Para是所有CNN参数的串联

然后我很好奇h是否是一个奇数函数,也就是说,在大多数现代CNN架构中,如VGG或ResNet中,h(x,Para)=-h(-x,Para)

如果没有,是否可以将其设置为奇数函数

否。
一般来说,神经网络具有近似的功能。当数据改变时,它的权重也会改变,这意味着NN不是一个固定的函数。你可以这样想象:NN不是
3x+y-5=0
,而是
ax+by+c=0
,你将学习
a、b、c
,它们最适合数据。
你的问题完全错了。

是的,我们可以使其近似和奇数函数(通过提供相应的数据)

您能说得更清楚吗?我不明白你的博文,输入图像X=[r,g,b],其中r=red,g=green,b=blue。卷积神经网络将输出一个结果Y。如果我向网络中输入另一个输入-X=[-r,-g,-b],CNN会输出-Y吗?