python中带向量的线性回归

python中带向量的线性回归,python,machine-learning,scikit-learn,Python,Machine Learning,Scikit Learn,我有以下数据: (ax1,ax2,ax2)(ay1,ay2,ay3) (bx1,bx2,bx2)(by1,by2,by3) (cx1,cx2,cx2)(cy1,cy2,cy3) (cx1,cx2,cx2)(cy1,cy2,cy3) .... 我有一组数据和相应的值。 我正在考虑使用Sickitlearn进行线性回归 我在看回归模型,没有发现像这样的向量。 我遗漏了什么吗?你能告诉我我们有任何模型,在给定的输入数据下, 如果我们给 (zx1,zx2,zx3) we can predict (zy

我有以下数据:

(ax1,ax2,ax2)(ay1,ay2,ay3)
(bx1,bx2,bx2)(by1,by2,by3)
(cx1,cx2,cx2)(cy1,cy2,cy3)
(cx1,cx2,cx2)(cy1,cy2,cy3)
....
我有一组数据和相应的值。 我正在考虑使用Sickitlearn进行线性回归

我在看回归模型,没有发现像这样的向量。 我遗漏了什么吗?你能告诉我我们有任何模型,在给定的输入数据下, 如果我们给

(zx1,zx2,zx3) we can predict (zy1m zy2zy3)

线性回归
中的相关方法是
.fit()
, 接受共享行数/样本数的两个二维数组作为输入

In [26]: import sklearn as sk
In [27]: from numpy import array
In [28]: model = sk.linear_model.LinearRegression()
In [29]: a = array(range(30)).reshape(10,3) # 10 samples, 3 features
In [30]: b = a**1.25 -0.25*a + 12           # 10 samples, 3 targets
In [31]: model.fit(a, b)
Out[31]: LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
In [32]: a[5], b[5], model.predict([a[5]])
Out[32]: 
(array([15, 16, 17]),
 array([ 37.76984507,  40.        ,  42.26923414]),
 array([[ 39.47550026,  41.57922876,  43.75287898]]))
In [33]: 

线性回归
中的相关方法是
.fit()
, 接受共享行数/样本数的两个二维数组作为输入

In [26]: import sklearn as sk
In [27]: from numpy import array
In [28]: model = sk.linear_model.LinearRegression()
In [29]: a = array(range(30)).reshape(10,3) # 10 samples, 3 features
In [30]: b = a**1.25 -0.25*a + 12           # 10 samples, 3 targets
In [31]: model.fit(a, b)
Out[31]: LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
In [32]: a[5], b[5], model.predict([a[5]])
Out[32]: 
(array([15, 16, 17]),
 array([ 37.76984507,  40.        ,  42.26923414]),
 array([[ 39.47550026,  41.57922876,  43.75287898]]))
In [33]: 

谢谢GBOFI,但我看到实际和预期之间有很多差异。有没有办法减少that@user826407你有一个线性模型,而otoh,你可能在特征和目标之间有一个非线性依赖关系。线性模型
X
尽其所能(它最小化
|b-X@a|²
),但无法准确预测目标值。。。也就是说,如果你的数据集中有异常值,删除它们可以提高拟合度,但这不能保证。谢谢GBOFI,但我看到实际值和预期值之间有很大的差异。有没有办法减少that@user826407你有一个线性模型,而otoh,你可能在特征和目标之间有一个非线性依赖关系。线性模型
X
尽其所能(它最小化
|b-X@a|²
),但无法准确预测目标值。。。这就是说,如果数据集中存在异常值,删除它们可以提高拟合度,但不能保证。