西瓜书《机器学习》课后答案——chapter9

来源:互联网 发布:单片机编程 编辑:程序博客网 时间:2024/05/16 14:29

9.1 证明:p1时,闵可夫斯基距离满足距离度量的四条基本性质。0p<1时,闵可夫斯基距离只满足非负性、规范性和对称性,不满足三角不等式。当p趋向于无穷大时,闵可夫斯基距离等于对应分量的最大绝对距离,也称为切比雪夫距离

limp+(u=1n|xiuxju|p)1p=maxu|xiuxju|.

解答:

  • p>0时,
    非负性:显然为正。
    规范性:当xi=xj时,有(nu=1|xiuxju|p)1p=0;当(nu=1|xiuxju|p)1p=0时,假设xixj,则(nu=1|xiuxju|p)1p0,与条件矛盾,故假设不成立,应有xi=xj
    对称性:绝对值不变,故距离不变。显然

闵可夫斯基不等式
p1时,则有如下不等式成立,称为闵可夫斯基不等式:

(i=1n|ai+bi|p)1p(i=1n|ai|p)1p+(i=1n|bi|p)1p.

其中ai,bi为实数或者复数。

  • p1时,根据闵可夫斯基不等式,有
    (u=1n|xiuxju|p)1p=(u=1n|xiuxku+xkuxju|p)1p(u=1n|xiuxku|p)1p+(u=1n|xkuxju|p)1p,(1)

    三角不等式成立。

至于0p<1时,怎么证明此不等式不成立就不知道了。

  • 切比雪夫距离:
    limp+(u=1n|xiuxju|p)1p=maxu|xiuxju|limp+(u=1n(|xiuxju|maxu|xiuxju|)p)1p=maxu|xiuxju|.(2)

    (|xiuxju|maxu|xiuxju|)大于0小于等于1:对于小于1的项,当p+时趋向于0,只有为1的项保留下来了,p+时还为1。因为只有有限个等于1的项,所以求和可以认为等于一个常数a,且a1,则limp+a1p=1。于是(2)的第二个等式成立。

9.2 同一样本空间中的集合X与Z之间的距离可以通过豪斯多夫距离计算

distH(X,Z)=max(disth(X,Z),disth(Z,X)),

其中

disth(X,Z)=maxxXminzZ||xz||2.

试证明:豪斯多夫距离满足距离度量的四条基本性质。

解答:

非负性:显然。
规范性
X=Z时,有disth(X,Z)=0,所以distH(X,Z)=0.
distH(X,Z)=0时,表明disth(X,Z)disth(Z,H)中最大的那个为0,又因为不可能为负,所以两个只能都为0。而disth(X,Z)=0意味着X中的任一点到Z的距离为0,这表示X中的任一点都必须属于Z,也就是说XZ。同样,由disth(Z,H)=0可以知道ZX。于是有X=Z
对称性:显然。
三角不等式

disth(x,Z) =minzZ||xz||2=minzZ||xy+yz||2,yYminzZ(||xy||2+||yz||2),yY=||xy||2+minzZ||yz||2,yY||xy||2+maxyminzZ||yz||2,yY=||xy||2+disth(Y,Z),yY

对不等式右边求miny,有

disth(x,Z)miny||xy||2+disth(Y,Z),xX

对不等式右边求maxx,有

disth(x,Z)disth(X,Y)+disth(Y,Z),xX

对不等式左边求maxx,有

disth(X,Z)disth(X,Y)+disth(Y,Z)

参考:http://www.math.harvard.edu/library/sternberg/slides/1180910.pdf

9.3 分析k均值算法能否找到最小化(9.24)的最优解。
解答:
k均值算法是用迭代的方法求解优化问题(9.24)的,每次迭代分为两步:计算簇中心;根据样本到簇中心的距离重新聚类。两个步骤都可以使得代价函数降低(至于为什么,可以阅读PRML p.425),又因为代价函数是有界的(聚类方法是有限的),所以不断迭代之后,最终一定能收敛,但不一定收敛到全局最小。而且收敛结果是对初值敏感的,不同的初值得到的聚类结果可能有很大差别。

上面只是简单的叙述,至于能不能严格证明:k均值算法不一定收敛到最优解,就不得而知了。目前只听说过证明收敛性的。

9.4 编程实现k均值算法,设置三组不同的k值、三组不同初始中心点,在西瓜数据集4.0上进行实验比较,并讨论什么样的初始中心有助于得到好结果。
解答:西瓜书《机器学习》课后答案——chapter9 _9.4

9.5 基于DBSCAN的概念定义,若x为核心对象,由x密度可达的所有样本构成的集合为X,试证明:X满足连接性和最大性。
解答:
连接性:对xiX,xjX,有xixj密度相连。
xiXxjX分别表示xix密度可达,xjx密度可达,于是由密度相连的定义可以知道xixj密度相连。

最大性:对xiXxjxi密度可达,则xjC
因为xiX,所以xix密度可达,又因为xjxi密度可达,所以xjx密度可达,于是xjC

9.6 试析AGNES算法使用最小距离和最大距离的区别。
解答:
当两个类簇比较大且距离比较远,但是有两个点距离对方比较近时,那么单链接算法会把这两个类簇合并,导致产生拉长的类簇而不是一般情况下的圆形类簇,这被称为链式效应。因为这个算法经常由于链式效应而把不相似的对象放到同一类簇中,所以是空间压缩的(space contracting)。
当两个类簇中至少有一对比较远离的对象时,全链接算法会最后合并这两个类簇,于是相似对象会长时间待在不同类簇中,这被称为分离效果(dissection effect)。所以,全链接算法是空间扩张的(space dilating)。

参考:Finding Groups in Data: An Introduction to Cluster Analysis. L Kaufman , PJ Rousseeuw. 1990. p.225.

9.7 聚类结果中若每个簇都有一个凸包(包含簇样本的凸多面体),且这些凸包不相交,则称为凸聚类。试析本章介绍的哪些聚类算法只能产生凸聚类,哪些能产生非凸聚类。
解答:
k-means算法是凸聚类算法,生成的类簇有凸包包围并且凸包互不相交;
DBSCAN算法是非凸聚类算法;

9.8 试设计一个聚类性能度量指标,并与9.2中的指标比较。

9.9 设计一个能用于混合属性的非度量距离。
用于相似性度量的距离不一定要满足距离的定义,这样的距离称非度量距离。

9.10 设计一个能自动确定聚类数的改进k均值算法,编程实现并在西瓜数据集4.0上运行。

阅读全文
0 0
原创粉丝点击