机器学习二-线性回归(linear regression)

来源:互联网 发布:meanshift分割算法 编辑:程序博客网 时间:2024/04/29 08:21

    • 知识准备
    • 推导过程
    • 代码实现

知识准备

本章和上一章不同,本章可以处理连续值,并且是预测问题,并不仅仅的单纯完成分类功能。
废话少说,直接建立损失函数:
loss=ni=1(yiwxi)2=(yXw)T(yXw)

推导过程

二话不说,直接求loss函数最小,那就是矩阵求极值,得出:
w=(XTX)1XTy
请注意,这里有个矩阵求逆,必须保证矩阵可逆才可以,至于矩阵可逆要满足什么条件,请直接去看《线性代数》。

代码实现

这个代码实现是很简单的,直接将数据转换为矩阵,直接比着公式就可以了,没有循环迭代什么的。

0 0
原创粉丝点击