机器学习---逻辑回归
来源:互联网 发布:python 时间函数加减 编辑:程序博客网 时间:2024/04/30 10:54
1.假设
2.sigmoid函数:
3.假设的含义:
4.性质:
5.找一个凸损失函数
6.可由最大似然估计推导出
单个样本正确预测的概率为
只是3两个式子合并在一起的表示方法
整个样本空间的概率分布为
取对数展开得,
作为损失函数,并且最小化它,则应改写为5式。
7.求解方法
最原始的方法,梯度下降法
先求导,并带入sigmoid表达式得
之后,参数更新为:
终止条件:
目前指定迭代次数。后续会谈到更多判断收敛和确定迭代终点的方法。
8.高级方法
共轭梯度
BFGS,L-BFGS
0 0
- 机器学习-逻辑回归
- 机器学习:逻辑回归
- 机器学习---逻辑回归
- 【机器学习】逻辑回归
- 机器学习----逻辑回归
- 机器学习 逻辑回归
- 机器学习:逻辑回归
- 机器学习--逻辑回归
- 机器学习-逻辑回归
- 机器学习-- 逻辑回归
- 机器学习-逻辑回归
- 机器学习-逻辑回归
- 【机器学习】--逻辑回归
- 【机器学习笔记】逻辑回归
- 机器学习之逻辑回归
- 机器学习之逻辑回归
- 机器学习之逻辑回归
- 机器学习算法:逻辑回归
- Linux vm运行参数之(一):overcommit相关的参数
- js创建div
- c++继承与派生
- poj 3468 A Simple Problem with Integers
- 快速搞定天气和行程,走遍天下都不怕!
- 机器学习---逻辑回归
- 机房收费系统数据要求说明书
- python 多线程问题
- softmax 函数
- 记录一下自己的生活
- 今日学习总结判定素数
- 百度面试总结
- cf C. Kefa and Park (树的dfs)
- Intersection of Two Linked Lists