据我了解,numpy.linalg.lstsq
和 sklearn.linear_model.LinearRegression
两者都寻找线性系统 Ax = y
的解决方案 x
,使残差和 ||Ax - y||
最小化。
但他们没有给出相同的结果:
from sklearn import linear_model
import numpy as np
A = np.array([[1, 0], [0, 1]])
b = np.array([1, 0])
x , _, _, _ = np.linalg.lstsq(A,b)
x
Out[1]: array([ 1., 0.])
clf = linear_model.LinearRegression()
clf.fit(A, b)
coef = clf.coef_
coef
Out[2]: array([ 0.5, -0.5])
我忽略了什么?
最佳答案
两者都是由LPACK gelsd实现的.
区别在于 linear_model.LinearRegression
将对输入 X(您的 A)进行如下数据预处理(默认)。但是 np.linalg.lstsq
不会。可以引用the source code of LinearRegression有关数据预处理的更多详细信息。
X = (X - X_offset) / X_scale
如果您不需要数据预处理,您应该设置fit_intercept=False
。
简而言之,如果您在线性回归之前对输入进行归一化,您将通过 linear_model.LinearRegression
和 np.linalg.lstsq
获得相同的结果,如下所示。
# Normalization/Scaling
from sklearn.preprocessing import StandardScaler
A = np.array([[1, 0], [0, 1]])
X_scaler = StandardScaler()
A = X_scaler.fit_transform(A)
现在 A 是 array([[ 1., -1.],[-1., 1.]])
from sklearn import linear_model
import numpy as np
b = np.array([1, 0])
x , _, _, _ = np.linalg.lstsq(A,b)
x
Out[1]: array([ 0.25, -0.25])
clf = linear_model.LinearRegression()
clf.fit(A, b)
coef = clf.coef_
coef
Out[2]: array([ 0.25, -0.25])
关于python - numpy.linalg.lstsq 和 sklearn.linear_model.LinearRegression 之间的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36573046/