Machine learning 神经网络或任何其他监督学习算法能否学习特殊的统计方法?

Machine learning 神经网络或任何其他监督学习算法能否学习特殊的统计方法?,machine-learning,neural-network,supervised-learning,Machine Learning,Neural Network,Supervised Learning,我知道任何隐层数的神经网络都可以逼近非线性函数,但它甚至可以预测某些特殊函数,特别是与某些统计方法一样吗 假设分类问题的统计规则如下。对于输入X_序列和输出Y_序列的训练集,我们计算属于每个特定类别的X_序列的几何平均值(即每个特定类别的X_序列中心)。因此,对于每个类,我们都有一个中心X。对于测试数据,我们通过找到到训练中心的最短欧几里德距离来估计类标签。例如,假设培训为我们提供以下映射:(-1,1,1)->0,(1,1,1)->1。然后对于测试数据(-0.8,0.5,1),因为它更接近(-1

我知道任何隐层数的神经网络都可以逼近非线性函数,但它甚至可以预测某些特殊函数,特别是与某些统计方法一样吗

假设分类问题的统计规则如下。对于输入X_序列和输出Y_序列的训练集,我们计算属于每个特定类别的X_序列的几何平均值(即每个特定类别的X_序列中心)。因此,对于每个类,我们都有一个中心X。对于测试数据,我们通过找到到训练中心的最短欧几里德距离来估计类标签。例如,假设培训为我们提供以下映射:(-1,1,1)->0,(1,1,1)->1。然后对于测试数据(-0.8,0.5,1),因为它更接近(-1,1,1),所以它应该属于0类

问题是我不知道是否有任何监督学习方法可以做到上述策略。我称之为“监督k-means”。KNN方法类似,但它基于N个最近点而不是所有训练点的平均值来查找标签


我想知道神经网络是否能做到这一点。或者我是否错过了其他可以实现上述策略的学习技巧?如果我试图学习的统计策略更复杂,例如包括中心方差和协方差,该怎么办?

使用神经网络解决此类问题将是过火


做一些和你描述的相似的事情。他们将每个类的中心估计为算术平均值,并将每个点与最近的中心相关联。但他们计算修正距离而不是欧几里德距离:GNB估计每个特征的条件方差,LDA也估计协方差。它们还考虑了先验类概率。这些修改可能会改进您的分类,但如果您不想这样做,您可以自己为其编写一个算法。

使用神经网络解决此类问题将是过火

做一些和你描述的相似的事情。他们将每个类的中心估计为算术平均值,并将每个点与最近的中心相关联。但他们计算修正距离而不是欧几里德距离:GNB估计每个特征的条件方差,LDA也估计协方差。它们还考虑了先验类概率。这些修改可能会改进您的分类,但是如果您不想要它们,您可以自己编写一个算法