method_SGD(Stochastic Gradient Descent)
来源:互联网 发布:瘦大腿内侧 知乎 编辑:程序博客网 时间:2024/05/17 01:26
刚刚看完斯坦福大学机器学习第四讲(牛顿法),也对学习过程做一次总结吧。
一、误差准则函数与随机梯度下降:
数学一点将就是,对于给定的一个点集(X,Y),找到一条曲线或者曲面,对其进行拟合之。同时称X中的变量为特征(Feature),Y值为预测值。
如图:
一个典型的机器学习的过程,首先给出一组输入数据X,我们的算法会通过一系列的过程得到一个估计的函数,这个函数有能力对没有见过的新数据给出一个新的估计Y,也被称为构建一个模型。
我们用X1、X2…Xn 去描述feature里面的分量,用Y来描述我们的估计,得到一下模型:
我们需要一种机制去评价这个模型对数据的描述到底够不够准确,而采集的数据x、y通常来说是存在误差的(多数情况下误差服从高斯分布),于是,自然的,引入误差函数:
关键的一点是如何调整theta值,使误差函数J最小化。J函数构成一个曲面或者曲线,我们的目的是找到该曲面的最低点:
假设随机站在该曲面的一点,要以最快的速度到达最低点,我们当然会沿着坡度最大的方向往下走(梯度的反方向)
用数学描述就是一个求偏导数的过程:
这样,参数theta的更新过程描述为以下:
(α表示算法的学习速率)
二、不同梯度下降算法的区别:
梯度下降:梯度下降就是我上面的推导,要留意,在梯度下降中,对于http://www.w3.org/1998/Math/MathML">θ” role=”presentation” style=”margin: 0px; padding: 0px; display: inline; line-height: normal; word-spacing: normal; word-wrap: normal; white-space: nowrap; float: none; direction: ltr; max-width: none; max-height: none; min-width: 0px; min-height: 0px; border: 0px; position: relative;”>θθ的更新,所有的样本都有贡献,也就是参与调整http://www.w3.org/1998/Math/MathML">θ” role=”presentation” style=”margin: 0px; padding: 0px; display: inline; line-height: normal; word-spacing: normal; word-wrap: normal; white-space: nowrap; float: none; direction: ltr; max-width: none; max-height: none; min-width: 0px; min-height: 0px; border: 0px; position: relative;”>θθ.其计算得到的是一个标准梯度。因而理论上来说一次更新的幅度是比较大的。如果样本不多的情况下,当然是这样收敛的速度会更快啦~
随机梯度下降:可以看到多了随机两个字,随机也就是说我用样本中的一个例子来近似我所有的样本,来调整http://www.w3.org/1998/Math/MathML">θ” role=”presentation” style=”margin: 0px; padding: 0px; display: inline; line-height: normal; word-spacing: normal; word-wrap: normal; white-space: nowrap; float: none; direction: ltr; max-width: none; max-height: none; min-width: 0px; min-height: 0px; border: 0px; position: relative;”>θθ,因而随机梯度下降是会带来一定的问题,因为计算得到的并不是准确的一个梯度,容易陷入到局部最优解中
批量梯度下降:其实批量的梯度下降就是一种折中的方法,他用了一些小样本来近似全部的,其本质就是我1个指不定不太准,那我用个30个50个样本那比随机的要准不少了吧,而且批量的话还是非常可以反映样本的一个分布情况的。
三、算法实现与测试:
通过一组数据拟合 y = theta1*x1 +theta2*x2
- #Python 3.3.5
- import random
- # matrix_A 训练集
- matrix_A = [[1,4], [2,5], [5,1], [4,2]]
- Matrix_y = [19,26,19,20]
- theta = [2,5]
- #学习速率
- leraing_rate = 0.005
- loss = 50
- iters = 1
- Eps = 0.0001
- #随机梯度下降
- while loss>Eps and iters <1000 :
- loss = 0
- i = random.randint(0, 3)
- h = theta[0]matrix_A[i][0] + theta[1]*matrix_A[i][1]
- theta[0] = theta[0] + leraing_rate(Matrix_y[i]-h)matrix_A[i][0]
- theta[1] = theta[1] + leraing_rate(Matrix_y[i]-h)matrix_A[i][1]
- Error = 0
- Error = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] - Matrix_y[i]
- Error = Error*Error
- loss = loss +Error
- iters = iters +1
- print (‘theta=’,theta)
- print (‘iters=’,iters)
- ”“”
- #梯度下降
- while loss>Eps and iters <1000 :
- loss = 0
- for i in range(4):
- h = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1]
- theta[0] = theta[0] + leraing_rate(Matrix_y[i]-h)matrix_A[i][0]
- theta[1] = theta[1] + leraing_rate(Matrix_y[i]-h)matrix_A[i][1]
- for i in range(4):
- Error = 0
- Error = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] - Matrix_y[i]
- Error = Error*Error
- loss = loss +Error
- iters = iters +1
- print (‘theta=’,theta)
- print (‘iters=’,iters)
- ”“”
- ”“”
- #批量梯度下降
- while loss>Eps and iters <1000 :
- loss = 0
- sampleindex = random.sample([0,1,2,3],2)
- for i in sampleindex :
- h = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1]
- theta[0] = theta[0] + leraing_rate(Matrix_y[i]-h)matrix_A[i][0]
- theta[1] = theta[1] + leraing_rate(Matrix_y[i]-h)*matrix_A[i][1]
- for i in sampleindex :
- Error = 0
- Error = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] - Matrix_y[i]
- Error = Error*Error
- loss = loss +Error
- iters = iters +1
- print (‘theta=’,theta)
- print (‘iters=’,iters)
- ”“”
#Python 3.3.5# matrix_A 训练集matrix_A = [[1,4], [2,5], [5,1], [4,2]]Matrix_y = [19,26,19,20]theta = [2,5]#学习速率leraing_rate = 0.005loss = 50iters = 1Eps = 0.0001#随机梯度下降while loss>Eps and iters <1000 : loss = 0 i = random.randint(0, 3) h = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] theta[0] = theta[0] + leraing_rate*(Matrix_y[i]-h)*matrix_A[i][0] theta[1] = theta[1] + leraing_rate*(Matrix_y[i]-h)*matrix_A[i][1] Error = 0 Error = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] - Matrix_y[i] Error = Error*Error loss = loss +Error iters = iters +1print ('theta=',theta)print ('iters=',iters)"""#梯度下降while loss>Eps and iters <1000 : loss = 0 for i in range(4): h = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] theta[0] = theta[0] + leraing_rate*(Matrix_y[i]-h)*matrix_A[i][0] theta[1] = theta[1] + leraing_rate*(Matrix_y[i]-h)*matrix_A[i][1] for i in range(4): Error = 0 Error = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] - Matrix_y[i] Error = Error*Error loss = loss +Error iters = iters +1print ('theta=',theta)print ('iters=',iters)""""""
import random
批量梯度下降
while loss>Eps and iters <1000 :
loss = 0
sampleindex = random.sample([0,1,2,3],2)
for i in sampleindex :
h = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1]
theta[0] = theta[0] + leraing_rate*(Matrix_y[i]-h)*matrix_A[i][0]
theta[1] = theta[1] + leraing_rate*(Matrix_y[i]-h)*matrix_A[i][1]
for i in sampleindex :
Error = 0
Error = theta[0]*matrix_A[i][0] + theta[1]*matrix_A[i][1] - Matrix_y[i]
Error = Error*Error
loss = loss +Error
iters = iters +1
print (‘theta=’,theta)
print (‘iters=’,iters)
“”“
- >>>
- theta= [2.9980959216157945, 4.001522800837675]
- iters= 75
>>>但如果对输入数据添加一些噪声
theta= [2.9980959216157945, 4.001522800837675]
iters= 75
- matrix_A = [[1.05,4], [2.1,5], [5,1], [4,2]]
matrix_A = [[1.05,4], [2.1,5], [5,1], [4,2]]求解结果为:
- >>>
- theta= [3.0095950685197725, 3.944718521027671]
- iters= 1000
>>>可见在有噪声的情况下,要及时调整模型误差精度、迭代次数上限,一期达到我们的需求。
theta= [3.0095950685197725, 3.944718521027671]
iters= 1000
- method_SGD(Stochastic Gradient Descent)
- 【转载】Stochastic Gradient Descent
- Stochastic Gradient Descent (SGD)
- Optimization:Stochastic Gradient Descent
- Optimization: Stochastic Gradient Descent
- Stochastic Gradient Descent
- Batch Gradient Descent and Stochastic Gradient Descent
- Stochastic gradient descent与Batch gradient descent
- CS231n Optimization: Stochastic Gradient Descent
- CS231Optimization: Stochastic Gradient Descent笔记
- batch gradient descent和stochastic/incremental gradient descent
- gradient descent vs (mini-batch) stochastic gradient descent
- ML实战-Adaline with stochastic gradient descent
- scikit-learn 1.5. Stochastic Gradient Descent
- SGD(Stochastic Gradient Descent)随机梯度下降
- BGD(Batch Gradient Descent), SGD (Stochastic Gradient Descent), MBGD (Mini-Batch Gradient Descent)
- Stochastic Gradient Descent vs Batch Gradient Descent vs Mini-batch Gradient Descent
- Stochastic Gradient Descent收敛判断及收敛速度的控制
- Matlab基本操作
- 退火算法?
- 【Scikit-Learn 中文文档】最近邻
- 在Linux服务器和本地主机查看服务器端口信息,检测端口是否可连接
- 掌柜大作战(22):京东商城系统之间的通信和合作,技术探讨
- method_SGD(Stochastic Gradient Descent)
- js定义对象和定义数组
- C及C++入门学习杂谈1
- 【Scikit-Learn 中文文档】高斯过程
- html两个div占满一行,设置div背景色,用float浮动并让键值对形式的文字键右对齐,值左对齐
- 关于ScrollView向上或向下滑动到顶时如何取消渐变颜色
- 版本之间的区别python2.x与python3.x
- cv1743 反转卡片(splay)
- Linux内核 fork 源码分析