Neural network 神经网络(FFW,BP)-函数逼近

Neural network 神经网络(FFW,BP)-函数逼近,neural-network,approximation,Neural Network,Approximation,是否可以训练NN来近似此功能: 如果我对x^2或sin或一些简单的函数进行近似,它工作得很好,但对于这类函数,我只得到了一条常值线。 我的神经网络有2个输入(x,f(x)),一个隐藏层(10个神经元),1个输出(f(x)) 对于训练,我使用BP,激活函数sigmoid->tanh 我的目标是获得无噪声的“平滑”函数,即捕捉上图中的函数 或者NN或遗传算法还有其他方法吗?如何近似?因为输入(x,f(x))是不连续的(不完全是,但有点不连续),所以你可能会遇到重大问题 因此,考虑到较大的不连续性,

是否可以训练NN来近似此功能:

如果我对x^2或sin或一些简单的函数进行近似,它工作得很好,但对于这类函数,我只得到了一条常值线。 我的神经网络有2个输入(x,f(x)),一个隐藏层(10个神经元),1个输出(f(x)) 对于训练,我使用BP,激活函数sigmoid->tanh

我的目标是获得无噪声的“平滑”函数,即捕捉上图中的函数


或者NN或遗传算法还有其他方法吗?如何近似?因为输入(x,f(x))是不连续的(不完全是,但有点不连续),所以你可能会遇到重大问题

因此,考虑到较大的不连续性,您的NN必须准确地记住x-f(x)映射

一种方法是使用四层神经网络,它可以解决不连续性问题

但实际上,对于thos问题,您可能只想看看其他平滑方法,而不是NN


你有一个周期函数,所以首先,只使用一个周期,否则你将记忆而不是概括

因为输入(x,f(x))是不连续的(不完全是不连续的,但有点不连续),所以您的GPG可能会出现重大问题

因此,考虑到较大的不连续性,您的NN必须准确地记住x-f(x)映射

一种方法是使用四层神经网络,它可以解决不连续性问题

但实际上,对于thos问题,您可能只想看看其他平滑方法,而不是NN


你有一个周期函数,所以首先,只使用一个周期,否则你将记忆而不是概括

我只使用1。培训期。四层NN意味着:1个输入、3个隐藏、1个输出或4个隐藏和1个输出?您必须测试许多架构,从一个隐藏层和少量神经元开始。然后你应该一步一步地增加神经元的数量和层数。甚至可以用正弦或余弦激活函数来学习整个函数。代替暴力测试,使用具有良好特征的级联相关算法。是的,四层意味着两组隐藏层。同样的方程。一个四层网络理论上能够逼近任何函数x不连续或不连续。我只使用1。培训期。四层NN意味着:1个输入、3个隐藏、1个输出或4个隐藏和1个输出?您必须测试许多架构,从一个隐藏层和少量神经元开始。然后你应该一步一步地增加神经元的数量和层数。甚至可以用正弦或余弦激活函数来学习整个函数。代替暴力测试,使用具有良好特征的级联相关算法。是的,四层意味着两组隐藏层。但方程是一样的。理论上,一个四层网络能够逼近任何函数x,不管它是否不连续。