ML_Liner Regression[机器学习]
来源:互联网 发布:淘宝羊毛衫 编辑:程序博客网 时间:2024/06/06 05:25
关键词:
1.Hypothesis Functio : h(x)=a+bx [假设函数]
2.Parameters:a,b[模型参数]
3.Cost Function: J(a,b) = 1/2m∑1-m (h(x^i)-y^i)^2 [其中m为学习样本的数量,x^i中的 i 为对应样本的编号 ]
4.Goal: minimize Cost Function J
为了使得代价函数取得最小值,使得回归取得最小值,在Liner Regression中采用梯度下降算法。
一下为该算法记录。
值得注意的是,梯度下降算法不是局限于LR的。
star with some a,b
keep changing a,b to reduce J
until we hopefully end up at a minimun
[其实就是环绕一圈,然后来一发墒增][纯属个人胡扯]
Gradient descent algorithm
repeat until convergence[收敛]{
(a,b)J=(a,b)J-[Learning Rate]*[Cost Function 微分项]
}
值得留意的是:当Learing Rate过大,可能会导致converge失败,甚至diverge.
然而,显然的是过小,收敛过慢,将导致性能的耗损。
最后,在Liner Regression问题中,Local optimun=Global optimun
然而,Liner Regression显然在复杂问题中是软弱而无力的。
0 0
- ML_Liner Regression[机器学习]
- 机器学习 Logistic Regression
- 机器学习 logistic regression
- 机器学习-Logistic Regression
- 机器学习-Logistic Regression
- 【机器学习】Softmax Regression简介
- 机器学习实战之--regression
- 机器学习之logistic Regression
- 机器学习笔记 - Logistic Regression
- 机器学习之logistics regression
- logistic regression 分类:机器学习
- 机器学习: Logistic Regression--python
- 机器学习基石-Linear Regression
- 机器学习基石-Logistic Regression
- 机器学习之Logistic regression
- Stanford机器学习 -- Logistic Regression 的学习
- 新宇教你机器学习之 Linear Regression (Least Square Regression)
- 机器学习第七课part1(logistc regression, softmax regression,KNN)
- 文章标题
- SharedPreferences
- hrbust/哈理工oj 1334 最好的心情【求最长递增子序列&&最大值】
- Unlucky Number I
- PS基础知识二
- ML_Liner Regression[机器学习]
- 开始学习HANA: In-memory Computing with SAP HANA on Lenovo X6 Systems
- linux 下查看系统资源和负载,以及性能监控
- leetcode_c++:3Sum Closest(016)
- Windows 08R2_破解管理员密码
- Hue-安装-配置-添加Oozie
- 【LeetCode】113. Path Sum II 基于Java和C++的解法及分析
- 679 - Dropping Balls
- Binder学习笔记(二)——defaultServiceManager()返回了什么?