吴恩达机器学习笔记_第三周
来源:互联网 发布:私人影院点播软件 编辑:程序博客网 时间:2024/05/01 10:26
Logistic Regression逻辑回归(分类):
0:Negative Class
1:Positive Class
二元分类问题讲起,虽然有回归二字,其实为分类算法,处理离散y值。
输出以以条件概率表示,若P(y=1|x;theta)= 0.7,表示有70%的概率y=1.那么有30%的概率y=0
决策边界(DecisionBoundary):当z=0,即thetaT*X的值等于零时,此时假设函数为0.5。
下面是另一个边界的例子:
只要得到theta值,就能得到决策边界
逻辑回归的代价函数很可能是一个非凸函数(non-convex),有很多局部最优点,所以如果用梯度下降法,不能保证会收敛到全局最小值。
单次的代价函数如下:
最终多样本的代价函数以及我们要做的工作:
根据前面的方法,同时地进行梯度下降法求出theta向量。
优化方法:共轭梯度、BFGS等等,无需选学习率,自动的,比梯度下降快,但是复杂。建议直接调用库。
多元分类:
1对多方法
h函数其实就对应着条件概率,所以就是训练三个分类器,选条件概率最高的。
过拟合问题overfitting——正则化Regulation
对训练数据效果很好,但无法对新数据进行很好的预测,泛化能力弱,就是一般性不好
参数过多,高阶项多等。
解决方法:
1、减少特征数量(找主要的,或者用算法找)
2、正则化(保留所有参数,但较少维度或数量级)
正则化项:加入参数过多的惩罚,其中lamda是控制正则化参数
lamda过大,容易造成欠拟合underfitting,相当于所有theta都约等于0,只剩第一项。
正则化线性回归:正则化+梯度下降结合:
不惩罚theta0,所以分开写
正规化方法加上正则化项后的求法:
正则化逻辑回归:
用梯度下降法的修改和线性回归形式一样,只是h函数不一样
- 吴恩达机器学习笔记_第三周
- 吴恩达机器学习笔记_第二周
- 吴恩达机器学习笔记_第五周
- 吴恩达机器学习笔记_第一周
- 吴恩达机器学习笔记_第四周
- Android应用界面开发_学习笔记_第三周
- 机器学习实战+第三章_决策树
- 机器学习笔记_ 决策树
- 机器学习笔记_ 提升
- 机器学习笔记_ SVM
- Geekband_C++面向对象高级编程_第三周学习笔记
- 机器学习笔记-第三章 逻辑回归
- 《机器学习基石》笔记:第三讲
- 机器学习笔记_逻辑回归
- 机器学习笔记_ 最大熵模型
- 机器学习笔记_ 降维_2:PCA
- 机器学习笔记_ 降维_3:SVD
- 机器学习笔记_ 聚类_2:谱聚类
- ios动画效果学习
- 算法--排序和查找
- Aizu 0189 Convenient Location【floyd】
- ios动画效果学习
- android照相、图片压缩
- 吴恩达机器学习笔记_第三周
- Hadoop 2.6.0集群的安装
- Hdu oj 2066 一个人的旅行(floyd剪枝)
- ListView中的数据一直显示在最底部(类似聊天中的信息列表)
- C语言基础篇(2):按位比较是否相等、找出不是成对出现的单数、不用中间变量实现两个数的交换
- 商品管理数据表设计
- linux 下使用 tc 模拟网络延迟和丢包
- 如何对Android应用程序进行JUnit测试
- 人之初,只有欲望