R 使用线性回归消除自变量对因变量(区间/比率)的估计影响

R 使用线性回归消除自变量对因变量(区间/比率)的估计影响,r,statistics,regression,spss,quantitative,R,Statistics,Regression,Spss,Quantitative,问题: 我们可以使用线性回归得出的非标准系数来消除自变量对因变量的影响吗? 我有一个大的数据集,怀疑一个(不需要的)自变量(IV)影响了研究中的数百个因数值(DV)。所有变量均为比率/区间。在继续进一步分析之前,我需要消除这种影响,并希望创建一个新的、经过更正的估计数据集。我的想法是通过线性回归计算回归系数,在IV和DV之间。如果IV(X)对DV(Y)的影响是显著的,因此,我将计算一个新的估计Y,它减去回归系数乘以IV值,得到新数据集的修正估计Y值 Y^new = Y^old - bX Y =

问题: 我们可以使用线性回归得出的非标准系数来消除自变量对因变量的影响吗?

我有一个大的数据集,怀疑一个(不需要的)自变量(IV)影响了研究中的数百个因数值(DV)。所有变量均为比率/区间。在继续进一步分析之前,我需要消除这种影响,并希望创建一个新的、经过更正的估计数据集。我的想法是通过线性回归计算回归系数,在IV和DV之间。如果IV(X)对DV(Y)的影响是显著的,因此,我将计算一个新的估计Y,它减去回归系数乘以IV值,得到新数据集的修正估计Y值

Y^new = Y^old - bX

Y = dependent variable
X = independent variable
b = unstandardized regression coefficient

这种方法合适吗?对于没有显著相关性的IV-DV,我应该怎么做

你可以在这个问题上得到更好的交叉验证指导谢谢,我不知道这个资源不,不要走这条路。相反,您应该在所有后续分析中包含协变量。还要注意的是,如果您的受抚养人是一个比率,那么普通的线性最小二乘回归是不合适的。