Machine learning 解相关数据

Machine learning 解相关数据,machine-learning,regression,linear-regression,eigenvector,eigenvalue,Machine Learning,Regression,Linear Regression,Eigenvector,Eigenvalue,如何计算非平方矩阵的平方根? p、 我尝试了乔丹矩阵分解法,但它似乎只适用于平方矩阵 >你可能想考虑< /P> 有很多教程和指南,比如matlab。 (有时使原来的数据单元变化之前是有益的) < P>你可能想考虑 有很多教程和指南,比如matlab。 (有时,以前使用原始数据单位方差是有益的)因为处理的是非方矩阵,所以应该应用奇异值分解 顺便说一下,“非平方矩阵的平方根”是一个没有很好定义的概念。我猜你的意思是“非方矩阵的分解”。存在多种分解类型,但对于通用分析,SVD的信息量最大。由于您处理的

如何计算非平方矩阵的平方根? p、 我尝试了乔丹矩阵分解法,但它似乎只适用于平方矩阵

>你可能想考虑< /P> 有很多教程和指南,比如matlab。 (有时使原来的数据单元变化之前是有益的)

< P>你可能想考虑

有很多教程和指南,比如matlab。
(有时,以前使用原始数据单位方差是有益的)

因为处理的是非方矩阵,所以应该应用奇异值分解


顺便说一下,“非平方矩阵的平方根”是一个没有很好定义的概念。我猜你的意思是“非方矩阵的分解”。存在多种分解类型,但对于通用分析,SVD的信息量最大。

由于您处理的是非方矩阵,因此应应用奇异值分解


顺便说一下,“非平方矩阵的平方根”是一个没有很好定义的概念。我猜你的意思是“非方矩阵的分解”。分解类型很多,但对于通用分析,SVD的信息量最大。

问题太多了。您想知道如何处理传感器数据的建议吗?如果是这样的话,如果你想得到有用的建议如何处理它们,请向我们展示它们的外观。或者你想要一些变量y(400个值)的最小二乘线性回归的一个倒数?在我看来,在这之前取消3列的相关性是没有意义的(尽管您可能希望对它们进行高通过滤,但如果不查看数据就很难判断)。或者你是在要求澄清你在报纸上读到了什么?我不知道你想回答哪一个问题,而且几乎不可能一下子全部回答。很抱歉投了反对票。Maxy,谢谢你的评论。读了你的评论后,当我再次阅读我的问题时,我也觉得不清楚。所以,现在我重新表述了我的问题。我希望这一次是清楚的。不幸的是,我不能分享这些数据,因为它属于一家公司,而且是保密的。问题太多了。您想知道如何处理传感器数据的建议吗?如果是这样的话,如果你想得到有用的建议如何处理它们,请向我们展示它们的外观。或者你想要一些变量y(400个值)的最小二乘线性回归的一个倒数?在我看来,在这之前取消3列的相关性是没有意义的(尽管您可能希望对它们进行高通过滤,但如果不查看数据就很难判断)。或者你是在要求澄清你在报纸上读到了什么?我不知道你想回答哪一个问题,而且几乎不可能一下子全部回答。很抱歉投了反对票。Maxy,谢谢你的评论。读了你的评论后,当我再次阅读我的问题时,我也觉得不清楚。所以,现在我重新表述了我的问题。我希望这一次是清楚的。不幸的是,我不能分享数据,因为它属于一家公司,而且是保密的。谢谢Benroth的回答。我想早些时候我的问题不清楚。现在,我已经重新措辞了。实际上,在标准化技术的帮助下,我在数据中获得了单位方差。但我的问题是我不能去相关。我在某个地方读到,为了解相关,我们需要计算矩阵的本征值和本征向量。但在我的例子中,矩阵不是一个平方矩阵。那么,如何计算特征值和特征向量呢?通常,对于PCA或类似方法的去相关,特征向量是从数据矩阵的协方差矩阵(平方)计算出来的。不幸的是,你目前对这个问题的措辞没有提到你想要解决的实际(“原始”)问题,因此很难给出有用的提示。谢谢Benroth的回答。我想早些时候我的问题不清楚。现在,我已经重新措辞了。实际上,在标准化技术的帮助下,我在数据中获得了单位方差。但我的问题是我不能去相关。我在某个地方读到,为了解相关,我们需要计算矩阵的本征值和本征向量。但在我的例子中,矩阵不是一个平方矩阵。那么,如何计算特征值和特征向量呢?通常,对于PCA或类似方法的去相关,特征向量是从数据矩阵的协方差矩阵(平方)计算出来的。不幸的是,你目前对这个问题的措辞没有提到你想要解决的实际(“原始”)问题,因此很难给出有用的提示。