Mitchell机器学习-贝叶斯学习

来源:互联网 发布:如何用winhex数据恢复 编辑:程序博客网 时间:2024/06/04 18:36

1. 极大后验假设中包含了假设的先验概率,若没有先验信息,则极大后验假设等同于极大似然假设。比较极大似然假设:



2. 作为搜索的概念学习

  • 在目标函数给出的可能的假设空间中搜索能最好拟合训练样例的假设
  • 所搜索的假设空间是有限的
  • 训练数据是无噪声的,学习到的假设应当与每个样例一致
  • 目标概念应当包含在
  • 没有其他先验知识
    • 没有其他先验知识指没有任何理由认为某假设比其他假设的可能性大

3. Brute-Force贝叶斯概念学习

  • Brute-Force MAP学习算法
    • 对于中每个假设,计算后验概率

    • 输出有最高后验概率的假设

  • 分析
    • 每个假设的先验概率:(无先验知识)
    • 若假设不一致,则,从而
      • 因为若不一致,则在该假设下不可能出现;若一致,则应该出现。
      • 若假设完全一致,,由全概率公式


      • 假设空间中的任一假设经过对训练样本的学习后的后验概率为:

    • 结论:上面的分析说明,在假设空间中每个与训练样本一致的假设的后验概率均为,因为它们都能正确识别样例,没有好坏之分,均为MAP假设,正是这些假设构成了前面所说的变型空间;而每个与样本不一致的假设的后验概率均为0

4. 贝叶斯最优分类器

  • 对新实例的分类是通过对所有假设的预测加权求和来决定的。
  • 贝叶斯最优分类器将新实例分类为

  • 在相同的假设空间和相同的先验概率下,该方法使新实例被正确分类的可能性达到最大。
  • 由于采用中的多个假设的线性组合,其结果可能不同于原假设空间中任一假设的预测结果。

5. Gibbs算法

  • 由于贝叶斯最优分类器对假设空间中每个假设计算完后验概率后,还有合并每个假设的预测来完成分类,计算量太大。
  • Gibbs算法
    • 对每个要分类的实例
      • 按照上的后验概率分布,从中随机选择一个假设
      • 来预测新实例的分类

6. 朴素贝叶斯分类器(Naive Bayes Classifier)


  • 朴素贝叶斯方法假定各属性值之间相互条件独立,故有


7. 贝叶斯信念网络

  • 网络结构已知、变量可以从训练样例完全获得,则通过简单的统计计算可得到每个节点相关的条件概率表
  • 网络结构已知、但部分变量值缺失,则可通过梯度上升法训练贝叶斯网络
    • 为父节点取值时,网络变量的值为的条件概率
    • 在当前网络参数假设下,对于每一个

    • 更新


      • 归一化保证各条件概率之和为1

8. EM算法

  • 问题
    • 数据:
    • 隐含变量(残缺数据):
    • 假设:模型参数的估计值
  • 完整的数据:
  • 目标:寻找使对数似然最大的

比较:

  • EM算法
    • 步骤:用当前假设和数据估计的概率分布
    • 步骤:根据上述计算求最大后验假设,用其代替,即

原创粉丝点击