2.9logistic回归中的梯度下降法
来源:互联网 发布:加内特知乎 编辑:程序博客网 时间:2024/05/17 03:27
注明:
z 是指单个样本的情况
y^ 是指逻辑回归的输出
L是指损失函数
y 基本真值标鉴值
我们求一下反向传播,就依次就得函数的导数:
首先给出链式法则:
我们看下图如何通过反向求导求得参数,w和b的值:
过程比较繁琐,请大家耐得住寂寞听我缓缓道来:
,这个函数的展开式在前面已经给出,对变量a进行求导,
可得到:
,对这个函数的z进行求导 ,求解过程如下:
可得到:a(1-a)
然后根据链式法则求得:
dz的值:a-y
下面我们求L对w和b的导数:
dl/dw1="dw1"=x1*dz
dl/dw2="dw2"=x2*dz
然后:
更新w1和w2的值,完成一次迭代,对于上面的是式子我在下面的链接中讲的很清楚了。http://blog.csdn.net/u012429555/article/details/78004113
这样就完成了一个单样本集合的训练,对于m各样本的该是如何计算的?
请看下图:
不知道你能否看的明白?
就是用一个for:1 to m循坏,然后将每次求得值加起来,然后除以m,然后求得最后参数,但是数据样本越大,for的表现越差,那么我们该如何解决了......?
- 2.9logistic回归中的梯度下降法
- logistic回归中的梯度下降法怎么来的
- Logistic回归与梯度下降法
- logistic回归|梯度下降|牛顿法总结
- Logistic回归与梯度下降法
- Logistic回归与梯度下降法
- 梯度下降及logistic回归
- logistic回归梯度下降算法
- 梯度下降法和拟牛顿法(四):在Logistic回归中的应用
- Logistic回归分类中的梯度上升法
- Logistic回归和梯度下降总结
- 回归-梯度下降法
- 回归:梯度下降法
- 统计学习方法 学习笔记--6.1.1 Logistic 回归 (梯度下降法)
- 深度学习深理解(一)-logistic回归与梯度下降法
- logistic回归详解(三):梯度下降训练方法
- 详细解释《机器学习实战》第5章logistic回归 第5-1程序(梯度下降法推导)和梯度下降法实现对率回归
- 简单分析线性回归中的梯度下降
- 实现简单的"nginx+uwsgi+django"的服务器架构
- SSM框架整合实现简单的分页效果
- Firefly-RK3399 USB摄像头驱动及SimpleCV安装测试
- 虚拟机安装ubuntu(win10)
- C/C++常见面试题
- 2.9logistic回归中的梯度下降法
- 论文发表左下角添加作者信息
- 达内课程-字符串相关方法(上)
- 合唱队问题
- EasyUI入门
- eclipse设置doc注解 @author 显示自定义用户名
- HDU-5727Necklace-项链 全排列环+匈牙利
- 基于nginx+jwplayer的点播服务器(测试成功)
- 欢迎使用CSDN-markdown编辑器