r - R 中的最小二乘优化

标签 r optimization linear-regression least-squares

我想知道如何在 R 中解决以下问题。

我们有一个 v 向量(n 个元素)和一个 B 矩阵(维度 m x n) 。 例如:

    > v 
    [1] 2 4 3 1 5 7

    > B
         [,1] [,2] [,3] [,4] [,5] [,6]
    [1,]    2    1   5    5    3    4
    [2,]    4    5   6    3    2    5
    [3,]    3    7   5    1    7    6

我正在寻找m长向量u使得

    sum( ( v - ( u %*% B) )^2 )

最小化(即最小化平方和)。

最佳答案

您正在描述线性回归,可以使用 lm 函数来完成:

coefficients(lm(v~t(B)+0))
#      t(B)1      t(B)2      t(B)3 
#  0.2280676 -0.1505233  0.7431653 

关于r - R 中的最小二乘优化,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31268826/

相关文章:

optimization - RMagick - 我应该使用哪种 rmagick 方法来优化大图像以减少图像加载时间?

c# - 寻找信息以提高代码速度

sql-server - 为什么使用临时表比嵌套查询更快?

python - 如何在pytorch中使用SGD成功训练简单的线性回归模型?

c - 从 GSL 库中获取 C gsl_fit_linear() 函数中线性回归的 p 值

python - SVM 在我的数据中提供了错误的结果。怎么修?

r - 如何用R中的随机数填充矩阵?

r - 什么决定了 R 中保存对象的大小?

r - 如何使用R从Dropbox下载文件(任何形式)

r - 计算面板数据的增长率