KL 散度,相对熵
来源:互联网 发布:小灰狼打印软件 编辑:程序博客网 时间:2024/06/06 03:24
找了一些文章,感觉这篇是最好的,转载自:
最好的解释链接
KL散度常用于衡量两个概率分布之间的距离。根据香农定理,对一个概率分布 P(X) 进行最优编码方案编码的平均编码长度为:
也就是说,如果对于概率分布 P(X) 的的编码为最优编码方案时:
现假设在同样的字符集上,存在另一个概率分布 Q(X) ,如果用概率分布 P(X) 的最优编码来为符合分布 Q(X) 的字符编码,因为 Q(x) 的最少编码数量应该不是 P(x) 的最优编码方案,除非两个分布一模一样。所以,此时表示这些字符就会比理想情况下多用一些比特数。
KL(Kullback-Leibler) Divergence ,就是用来度量这种情况下平均每个字符多用的比特数,因此可用来衡量两个分布的差异。得 KL 距离定义:
KL-Divergence ≥ 0 。当 KL-Divergence = 0 时,两个分布一模一样。
KL-Diverggence (A, B) ≠ KL-Divergence(B, A) ,即 KL 散度并不满足对称性(即使很多时候把它叫做 KL “距离”)。
如果想使其对称,可以使用如下度量:
0 0
- KL 散度,相对熵
- KL 散度,相对熵
- 相对熵(KL散度)
- 相对熵(KL散度)
- 相对熵(KL散度)
- 相对熵(KL散度)
- 相对熵(KL散度)
- Kullback–Leibler divergence(相对熵,KL距离,KL散度)
- 相对熵——KL散度
- KL散度(Kullback-Leibler_divergence)(相对熵)
- KL距离 相对熵
- KL距离(相对熵)
- KL距离(相对熵)
- KL距离(相对熵)
- 特征选择--信息增益(相对熵、KL散度、KL距离)
- 熵,交叉熵,相对熵(KL散度)
- 熵 信息增益 相对熵(KL散度) 互信息
- KL散度(相对熵,信息增益)学习笔记
- FFMPEG中最关键的结构体之间的关系
- eclipse插件使用心得(解决兼容问题)
- 编程规范
- 侃侃·人生就像走迷宫打boss
- cocos2dx实例开发之2048(添加动画版)
- KL 散度,相对熵
- C++空类中的默认函数
- 第一章 1.5.1节练习 & 1.5.2节练习 & 1.6节练习
- testng总结
- 非转基因广告属商业范畴与食品安全无关
- 简单使用SVN
- 第二章 2.1.1节练习
- 东北华北等地今天最低气温将跌破0℃
- Yiban抓数据小结