Mitchell机器学习-贝叶斯学习
来源:互联网 发布:如何用winhex数据恢复 编辑:程序博客网 时间:2024/06/04 18:36
1. 极大后验假设中包含了假设的先验概率,若没有先验信息,则极大后验假设等同于极大似然假设。比较极大似然假设:
2. 作为搜索的概念学习
- 在目标函数给出的可能的假设空间中搜索能最好拟合训练样例的假设
- 所搜索的假设空间是有限的
- 训练数据是无噪声的,学习到的假设应当与每个样例一致
- 目标概念应当包含在中
- 没有其他先验知识
- 没有其他先验知识指没有任何理由认为某假设比其他假设的可能性大
3. Brute-Force贝叶斯概念学习
- Brute-Force MAP学习算法
- 对于中每个假设,计算后验概率
- 输出有最高后验概率的假设
- 分析
- 每个假设的先验概率:(无先验知识)
- 若假设与不一致,则,从而
- 因为若不一致,则在该假设下不可能出现;若一致,则应该出现。
- 若假设与完全一致,,由全概率公式
- 假设空间中的任一假设经过对训练样本的学习后的后验概率为:
- 结论:上面的分析说明,在假设空间中每个与训练样本一致的假设的后验概率均为,因为它们都能正确识别样例,没有好坏之分,均为MAP假设,正是这些假设构成了前面所说的变型空间;而每个与样本不一致的假设的后验概率均为0
4. 贝叶斯最优分类器
- 对新实例的分类是通过对所有假设的预测加权求和来决定的。
- 贝叶斯最优分类器将新实例分类为
- 在相同的假设空间和相同的先验概率下,该方法使新实例被正确分类的可能性达到最大。
- 由于采用中的多个假设的线性组合,其结果可能不同于原假设空间中任一假设的预测结果。
5. Gibbs算法
- 由于贝叶斯最优分类器对假设空间中每个假设计算完后验概率后,还有合并每个假设的预测来完成分类,计算量太大。
- Gibbs算法
- 对每个要分类的实例
- 按照上的后验概率分布,从中随机选择一个假设
- 用来预测新实例的分类
- 对每个要分类的实例
6. 朴素贝叶斯分类器(Naive Bayes Classifier)
- 朴素贝叶斯方法假定各属性值之间相互条件独立,故有
7. 贝叶斯信念网络
- 网络结构已知、变量可以从训练样例完全获得,则通过简单的统计计算可得到每个节点相关的条件概率表
- 网络结构已知、但部分变量值缺失,则可通过梯度上升法训练贝叶斯网络
- 为父节点取值时,网络变量的值为的条件概率
- 在当前网络参数假设下,对于每一个有
- 为父节点取值时,网络变量的值为的条件概率
- 更新
- 归一化保证各条件概率之和为1
8. EM算法
- 问题
- 数据:
- 隐含变量(残缺数据):
- 假设:模型参数的估计值
- 完整的数据:
- 目标:寻找使对数似然最大的
比较:
- EM算法
- 步骤:用当前假设和数据估计的概率分布
- 步骤:根据上述计算求最大后验假设,用其代替,即
- Mitchell机器学习-贝叶斯学习
- Mitchell机器学习-遗传算法
- 机器学习(Mitchell)1
- Mitchell机器学习-基于实例的学习
- [自学笔记]Tom Mitchell《机器学习》
- [Mitchell 机器学习读书笔记]——机器学习基本概念
- [Mitchell 机器学习读书笔记]——决策树学习
- Mitchell机器学习-决策树学习中信息论的相关知识
- Tom Mitchell 机器学习 — 学习笔记(1)
- [Mitchell 机器学习读书笔记]——人工神经网络
- [Mitchell 机器学习读书笔记]——概念学习、偏序结构
- ML入门书籍Tom Mitchell《机器学习》笔记——第二章概念学习
- ML入门书籍Tom Mitchell《机器学习》笔记——第一章引言
- 机器学习-贝叶斯学习(BayesLernen)
- 面试:机器学习--贝叶斯
- 机器学习-贝叶斯
- 机器学习--朴素贝叶斯
- 机器学习--贝叶斯公式
- 设计模式简述
- C# 获取文件大小,创建时间,文件信息,FileInfo类的属性表 .
- C#与Java互通AES算法加密解密
- 软件架构设计之Utility模块——DateTime
- 黑马程序员—异常
- Mitchell机器学习-贝叶斯学习
- 【编程札记】Problem 1143 - Part-time Job
- Struts,Spring,Hibernate面试题总结
- Qt 获取本地IP 和 本地主机名称
- Java内部类总结
- sql server 2005 通过代理定时备份数据库
- aaa
- C++中SYSTEM的用法
- Android模拟器/read_write/word_count.ko