Machine learning 对于给定的数据样本,什么是合适的学习方法

Machine learning 对于给定的数据样本,什么是合适的学习方法,machine-learning,neural-network,time-series,fuzzy-logic,supervised-learning,Machine Learning,Neural Network,Time Series,Fuzzy Logic,Supervised Learning,我在matlab工作 我有两个不相关的256时间步的变量的数据样本。其Y轴上的值和X轴上的时间步长的图如下所示。 第一个变量(如Pos的典型图为 第二个变量(如Vel的典型图为 现在我需要在下一个10时间步预测这些变量的值。为了检查各种机器学习技术是否能做到这一点,我首先取了变量的值246时间步,预测下一个10时间步,然后通过计算均方误差(比如ms\u error)将它们与实际值进行比较 我使用时间序列(NAR)、线性回归、模糊输入系统、神经网络来完成这项工作。但所有这些都不能使ms_error

我在matlab工作

我有两个不相关的
256时间步的变量的数据样本。其Y轴上的值和X轴上的时间步长的图如下所示。
第一个变量(如
Pos
的典型图为

第二个变量(如
Vel
的典型图为

现在我需要在下一个
10
时间步预测这些变量的值。为了检查各种机器学习技术是否能做到这一点,我首先取了变量的值
246
时间步,预测下一个
10
时间步,然后通过计算均方误差(比如
ms\u error
)将它们与实际值进行比较

我使用时间序列(NAR)、线性回归、模糊输入系统、神经网络来完成这项工作。但所有这些都不能使
ms_error
的值小于2。
有人能推荐一种学习算法来预测这两个样本的未来值吗。

你可以通过遗传编程尝试符号回归

不假设函数的结构适合您的数据点,因此它非常适合这种类型的发现任务

是GP最早的应用之一,并将继续使用

每种主要编程语言都有许多现成的使用环境,并且有许多关于这个主题的教程,例如

  • C++:
  • 爪哇:
  • Matlab:-
  • Python:

(我不是说这些软件是最好的,只是众所周知。当然,谷歌搜索可以推出其他更适合您需要的软件)。

我知道这听起来可能是一个真正的业余爱好者,但谷歌搜索确实没有给我任何满意的答案。也许我没有使用正确的关键字。不管怎样,我现在正在检查你的建议。