Linear Regression学习笔记
来源:互联网 发布:知乎 碧桂园森林城市 编辑:程序博客网 时间:2024/05/02 01:53
回归主要分为线性回归和逻辑回归。线性回归主要解决连续值预测问题,逻辑回归主要解决分类问题。但逻辑回归输出的是属于某一类的概率,因此常被用来进行排序。
1. 线性回归的原理
假定输入
然后对于给定的样本
现假定
在特征
2. 损失函数
为了找到最好的权重参数
其中
为了评价模型拟合的效果,对于一个特定的数据集
即总体误差是所有样本点误差平方和的均值,其中
3. 梯度下降
假设有一堆样本点
- 首先随机初始化
θ ,例如令θ⃗ =0⃗ 。 不断变化
θ⃗ 的值来改变J(θ) 的值,使其越来越小。改变的规则为:θi:=θi−α∂J(θ)∂θi ∂J(θ)∂θi=∑j=1m(hθ(x(j))−y(j))x(j)i
因此对于所有的m 个样本点求和,有:θi:=θi−α∑j=1m[(hθ(x(j))−y(j))⋅x(j)i]
其中x(j),y(j) 表示第j 个样本点,x(j) 是一个向量,x(j)i 表示第j 个样本点x(j) 的第i 个分量,是一个标量。不断重复上述过程,直到最后收敛(例如最后发现损失函数
Jθ(X) 基本不再变化)。
整个过程当中,
4. 利用最小二乘拟合的方法来计算θ
为了计算函数
假设
故
则
要求梯度,令
求得
最终
如果
xTx 是不可逆的,说明x 当中有特征冗余,需要去掉某些特征。
阅读全文
0 0
- Linear Regression学习笔记
- # linear regression & logistics regression学习笔记
- 【机器学习笔记2】Linear Regression总结
- 【机器学习笔记2】Linear Regression总结
- PRML学习笔记-线性回归 Linear Regression
- linear Regression 学习
- 吴恩达 机器学习笔记 Linear Regression with Multiple Variables
- UFLDL学习笔记1——Linear Regression
- Coursera机器学习课程笔记(2) Linear Regression
- 【Stanford机器学习笔记】1-Linear Regression with One Variable
- 【Stanford机器学习笔记】2-Linear Regression with Multiple Variables
- UFLDL Tutorial学习笔记(一)Linear&Logistic&Softmax Regression
- Andrew机器学习笔记1:线性回归 linear regression
- [笔记]机器学习(Machine Learning) - 01.线性回归(Linear Regression)
- 机器学习笔记5---Gradient descent for linear regression
- (MIT)Deep learning 学习笔记(5)--Linear Regression
- 机器学习基石笔记9——Linear Regression
- Matlab学习 之 linear regression
- 基于Bootstrap与jQuery-Validate的个人简易封装
- 从vi命令开始
- linux nice与renice进程优先级调度命令学习与示例
- python面向对象编程
- 机器学习_逻辑回归分类
- Linear Regression学习笔记
- 2011 Heilongjiang collegiate programming contest题解报告
- 第一个hello world in python
- java同步和异步
- 数据结构
- 矩阵的算法
- 初识计算机
- Codeforces #831E: Cards Sorting 题解
- python文件操作