chapter 8:Graphical Models(图模型)
来源:互联网 发布:淘宝卖品牌要授权吗 编辑:程序博客网 时间:2024/05/17 01:21
一:Introduction
1:图由结点(node)和边(edge)组成,在概率图模型(probabilistic graphical model)中,每个结点表示一个随机变量或者一组随机变量,边表示这些变量之间的概率关系。The graph captures the way in which the joint distribution over all of the random variables can be decomposed into a product of factors each depending only on a subset of the variables。
2:概率图可以分好几种,一种是有向图模型(directed graphical model),也称作Bayesian networks,连接结点的边有箭头表示特别的方向,一般用来表示随机变量之间的因果关系;还有一种是无向图模型(undirected graphical model),也叫作Markov random fields,边没有箭头不表示任何的方向,一般用来表示随机变量之间的soft constraints;对于解决推理(inference)问题,也就是求后验分布,一般是把有向图和无向图转换成因子图(factor graph)。
二:Bayesian Netowrks(directed graphical models):
1:利用有向图,我们可以把所有变量的联合分布表示成一系列条件分布的积。假设有K个结点,每个结点表示一个变量,则这K个变量的联合分布表示如下:
2:我们说的概率有向图是有向无环图(directed acyclic graphs, DAGs);也就是沿着边跟随着箭头的方向移动不会回到原来出发的地方
3:在图模型中,结点表示的变量分成两类,一类是observed variables,一类是latent variables(或者是hidden variables)。Observed variables顾名思义表示该变量的值能够被观察到,能够在训练集中直接体现出来,而latent variables的值不能被观察到,不能再训练集中体现出来,比如我们在回归模型中提到的概率分布
4:Generative models:
(1):ancestral smapling:假设有一个K个变量的联合分布,其能够被有向图刻画,表达形式为
(2):在我们实际使用图表达概率模型时,高序列号的变量代表observed variables,低序列号的变量代表latent variables,我们可以理解如此的图表示了observed variables值的产生过程,这种刻画了生成observed variables值因果过程的模型被认为是generative model,因此应用于generative model的ancestral sampling的方法就模拟了observed variables值产生的过程。
(3):latent variables没必要有着明确的物理解释,它们的引入或许仅仅只是为了使复杂的联合分布能够被简单的概率分布构造。
5:Linear-Gaussian models:
(1):在有向图中,如果结点i代表了满足高斯分布的一个连续变量
(2):上面结果为高斯分布的联合分布
(3):如果有向图中结点i代表了一组满足多变量高斯分布的变量
三:Conditional Independence of directed graph
1:若
2:如果联合分布由一些列条件分布的积组成,那么原则上我们可以用概率的求和求积规则获得该联合分布的条件独立性质,但这是非常浪费时间的。有了有向图,我们可以依据d-separation标准,直接从有向图中读取条件独立性质。
3:d-separation标准:
(1):这个结点是head-to-tail或者是tail-to-tail结点,并且在集合C中;
(2):这个结点是head-to-head结点,但它以及它的后代都不在集合C中;
如果从集合A结点到集合B结点的所有路径都被堵住了,我们就说A is d-separated from B by C,并且在给定集合C下,集合A条件独立B。
4:naive Bayes:
5:d-separation theorem:
6:Markov blanket(Markov boundary):
我们注意到不依赖于
四:Markov Random Fields
1:上面介绍了表示概率模型的有向图(directed graph),现在下面将要介绍表示概率模型的无向图(undirected graph),也就是连接结点的边没有箭头,无向图也称作Markov random field或者是Markov network;注意到我们要求有向图必须要是无环的,但是无向图可以是有环的。
2:Conditional independence of directed graph
3:Factorization properties
(1):在无向图中,联合分布
其中,
(2):在clique中,所有的结点对都相互连接,maximal clique表明在这个clique中所有结点对相互连接,但加进来另外一个结点就不满足所有结点对相互连接这一性质;
(3):为了使联合概率
4:Relation to directed graphs
1):converting a directed graph to an undirected graph:
(1):先给图中所有结点的所有父节点对增加无向边,然后把原先图中所有的有向边变成无向边;
(2):在把有向图转为无向图的过程中,一些条件独立性质会被抛弃,因此在转换过程中我们应该要尽可能少地抛弃条件独立性质。
(3):我们一般不会把无向图转为有向图,因为potential function不具有概率解释,要想把它转换成具有概率解释的因子(factor),这存在着很大的困难。
2):conditional independence properties expressed by directed graph and undirected graph:
(1):D map:如果一个概率分布满足的所有条件独立性质都能够在图中反映出来,那么这个图就称为该概率分布的D map;
(2):I map:如果一个图表明的所有条件独立性质都能够某一个概率分布满足,那么就该图为该概率分布的I map;
(3):Perfect map:如果一个图表明的所有条件独立性质都能够被某一个概率分布满足,同时该概率分布所表明的条件独立性质也能够被该图满足,那么就认为该图是该分布的perfect map,因此perfect map既是I map也是D map;
(4):现在有一个集合D的概率分布,在该集合中每一个概率分布分别对应一个perfect directed map;同时存在着另外一个集合U的概率分布,在该集合中每一个概率分布都对应一个perfect undirected map,在这种情况下,集合D会相交于集合U,但两个集合不相等,这表明对应一个directed perfect graph的概率分布不一定有一个undirected perfect graph,反之亦然。同时集合D与集合U的并集并不表示所有的概率分布,也有一些概率分布既没有对应的perfect directed map也没有对应的perfect undirected map。
五:Inference in graphical models
1:Trees:
2:Factor graphs:
1):假设联合分布能够写成因子积的形式
2):在因子图(factor graph)中,有两类结点,一类是用圆圈表示的代表变量的结点,一类是用方块表示的代表因子(factor)的结点,用无向边连接因子结点与该因子依赖的每一个变量结点。因此因子图(factor graph)据说是bipartite,因为其有两类不同的结点组成,并且也只是在因子结点与变量结点之间存在着无向边,因子结点与因子结点之间以及变量结点与变量结点不存在任何的边连接;
3):converting undirected graph or directed graph to factor graph
(1):为了把无向图转换成因子图,首先我们在因子图中创建对应于无向图的变量结点,然后创建一些列对应于无向图maximal clique
(2):相似地,为了把有向图转换成因子图,首先我们创建对应于有向图的变量结点,然后创建对应于条件分布的因子结点,然后把因子结点与对应的变量结点用无向边连接起来;
(3):把无向树(undirected tree)以及有向树(directed tree)以及directed polytree转化成因子图(factor graph),获得的因子图还是树,也就是说获得的因子图没有环(loop)以及所有结点之间只有一条路径相通。
3:the sum-product algorithm
1):The sum-product algorithm是被应用于求解一个结点或者是几个结点的边际(marginal),比如说我们有一个D个变量的联合分布
2):不过此sum-product algorithm只适合应用于有向树(directed tree),无向树(undirected tree)以及polytree,以便于对应的因子图也是树结构;为了求解边际概率分布,我们先把最初的图转换成因子图,然后再应用下面将要介绍的sum-product algorithm;
3):所有变量都是hidden variables的sum-product algorithm:
(1):把结点x作为因子图的根节点,然后对因子图所有叶节点使用
(2):递归地使用
(3):使用公式
如果我们希望计算出与因子
4):当有些变量是observed variables时的sum-product algorithm:
4:the max-sum algorithm
1):The max-sum algorithm 是用来找到联合概率分布
2):the max-sum algorithm的过程:
(1):随便选择一个结点作为因子图的根节点,假设为结点x,然后对因子图所有叶节点使用
(2):递归地使用
(3):使用公式
(4):把步骤(3)获得的结点x变量值
- chapter 8:Graphical Models(图模型)
- ESL2 Chapter 17 Undirect Graphical Models
- Graphical Models
- PRML Chapter 8. Graphical Models - 8.2.1 Three example graphs
- Stanford概率图模型(Probabilistic Graphical Model)— 第二讲 Template Models and Structured CPDs
- 图模型的统计推断 inference in graphical models(马尔科夫链的推断)
- <Probabilistic Graphical Models>1 Graphical Models
- 贝叶斯网络(Bayesian network))简介(PRML第8.1节总结)概率图模型(Graphical models)
- 深度学习、概率图模型、逻辑之间的联系和区别 Deep Learning vs Probabilistic Graphical Models vs Logic
- Graphical Models Links
- Probabilistic Graphical Models
- Graphical models资料
- Probabilistic Graphical Models -- Representation
- Graphical Models Reading Group
- <Probabilistic Graphical Models>2 Graphical Models in Action
- Probabilistic Graphical Models 3 Template Models
- Probabilistic Graphical Models 1 简介
- MLaPP Chapter 4 Gaussian models 高斯模型
- dddd
- ThreadLocal实现线程范围的共享变量
- spring security 返回具体登陆错误信息
- View的滑动
- 计网--OSI七层与TCP/IP五层网络架构详解
- chapter 8:Graphical Models(图模型)
- HDU 5894 组合数学
- python安装及环境配置
- 加载cell的xib的两种方式
- 利用缓存机制来实现对页面的优化
- JAVA EE-SESSION&COOKIE
- HDU 5895 Mathematician QSC(欧拉定理推广)
- AS汇编器源码剖析-第5章-用eclipse编译调试AS
- 【Thinking in Java】初始化与清理(一)