Machine learning 神经网络-我应该删除所有衍生/计算的变量吗?

Machine learning 神经网络-我应该删除所有衍生/计算的变量吗?,machine-learning,neural-network,random-forest,dimensionality-reduction,Machine Learning,Neural Network,Random Forest,Dimensionality Reduction,我用神经网络控制游戏中角色的移动。我目前有大量的维度,为了改进存储和代码的可管理性,我正在考虑删除所有派生变量,即任何可以从已经发送到网络的数据中计算出来的变量 这方面的一个例子是a)位置、b)速度和c)沿路径的加速度之间的关系。目前,我将所有三个数据点中的最后50个数据点发送给NN,以帮助它决定下一个移动。然而,我想知道是否可以通过只发送位置来尽可能地减少系统控制/错误。从理论上讲,神经网络应该能够在给定位置历史的情况下,完全独立地推导出某个时间点的速度和加速度 一般情况下,是否建议在此容量下

我用神经网络控制游戏中角色的移动。我目前有大量的维度,为了改进存储和代码的可管理性,我正在考虑删除所有派生变量,即任何可以从已经发送到网络的数据中计算出来的变量

这方面的一个例子是a)位置、b)速度和c)沿路径的加速度之间的关系。目前,我将所有三个数据点中的最后50个数据点发送给NN,以帮助它决定下一个移动。然而,我想知道是否可以通过只发送位置来尽可能地减少系统控制/错误。从理论上讲,神经网络应该能够在给定位置历史的情况下,完全独立地推导出某个时间点的速度和加速度

一般情况下,是否建议在此容量下减小尺寸?为什么

我知道在这种情况下,oft的建议只是测试它,看看会发生什么,但在这种情况下,这里有太多的变量,需要几天才能测试,所以我希望听到任何人在这种情况下的经验,以及他们对一般规则的猜测

额外的问题——对于神经网络(致力于将函数映射到数据)和随机森林(似乎更多地使用最近邻方法)来说,这种评估/决策会有所不同吗


谢谢

实施PCA以减少特征数量。他们减少的功能将有不寻常的单位,如[positionvelocityacceleration]。但是,如果正确执行PCA,则可以保留一个与原始特征集方差为99%的特征集

然后在NN中使用新功能集

建议降低维度以加速算法,因为正如您所观察到的,您的特征之间有很多相似之处