机器学习(周志华) 参考答案 第十二章 计算理论学习
来源:互联网 发布:中国护理质量数据平台 编辑:程序博客网 时间:2024/05/22 20:28
机器学习(周志华) 参考答案 第十二章 计算理论学习
机器学习(周志华西瓜书) 参考答案 总目录
- http://blog.csdn.net/icefire_tyh/article/details/52064910
从三个方面来确定泛化误差的上界,确定学习的可行性。
1.试证明Jensen不等式:对任意凸函数f(x) ,有f(E(x))≤E(f(x)) 。
显然,对任意凸函数
取
所以:
以此类推得:
2.试证明引理12.1。
引理(12.1)若训练集
已知Hoeffding不等式:若
将
带入Hoeffding不等式得:
其中
所以有:
3.试证明推论12.1。
推论(12.1):若训练集
式(12.18):
有引理(12.1)可知,
即
取
所以
整理得:
4.试证明:Rd 空间中线性超平面构成的假设空间的VC维是d+1。
线性空间超平面公式为
取
设A是
要证明的是,对于任意的
由于X是可逆矩阵,可以得
由于
则:
对任意的
即VC维小于d+2。
所以
5.试计算决策树桩假设空间的VC维。
如果是非连续属性,通过决策树一次划分无法确定节点个数,可能导致VC维无限大。
仅考虑连续属性单变量的决策树桩。
由于决策树的划分是与坐标轴平行的超平面,显然平面上的2个点是可以被打散的,即VC维大于等于2。
对于平面的3各点,如果其中两个点的连线与一条坐标轴平行,另两个点的连线与另一坐标轴平行。比如
所以决策树桩假设空间的VC维是2。
6.决策树分类器的假设空间VC维可以为无穷大。
由于决策树如果不限制伸展,会包含整个假设空间。对任意多的样本,决策树可以使得训练误差为0,所以VC维是无穷大。
7.试证明:最近邻分类器的假设空间VC维为无穷大。
最近邻分类器,也就是1NN,总是会把自己分类成自己的样本分类,所以对任何数目的样本训练误差恒为0。如图所示
8.试证明常数函数c的Rademacher的复杂度为0。
常数函数c的Rademacher的复杂度为
其中
所以
9.给定函数空间F1,F2 ,试证明Rademacher复杂度Rm(F1+F2)≤Rm(F1)+Rm(F2) 。
当
当
所以
即:
10.考虑定理12.8,试讨论通过交叉验证法来估计学习算法泛化能力的合理性。
K折交叉验证,当K=m时,就成了留一法。
由式(12.59):
取
前提条件是
仅拿出一个样本,可以保证很小的β。
随着K的减小,训练用的样本会减少,β逐渐增大,当β超出O(1/m)量级时,交叉验证就变得不合理了。
- 机器学习(周志华) 参考答案 第十二章 计算理论学习
- 机器学习(周志华)_第十二章 计算学习理论
- 机器学习(周志华) 参考答案 第四章 决策树
- 机器学习(周志华) 参考答案 第五章 神经网络
- 机器学习(周志华) 参考答案 第九章 聚类
- 《机器学习》周志华第一章参考答案
- 机器学习(周志华) 参考答案 第八章 集成学习 8.3
- 机器学习(周志华) 参考答案 第八章 集成学习 8.5
- 机器学习(周志华) 参考答案 第八章 集成学习
- 机器学习(周志华) 参考答案 第十三章 半监督学习 13.4
- 机器学习(周志华) 参考答案 第十三章 半监督学习 13.10
- 机器学习(周志华) 参考答案 第十三章 半监督学习
- 机器学习(周志华) 参考答案 第十五章规则学习
- 机器学习(周志华) 参考答案 第十六章强化学习
- 机器学习(周志华) 参考答案 第十五章规则学习 15.1
- 机器学习(周志华) 参考答案 第十五章规则学习 15.2
- 第八章 集成学习-机器学习(周志华) 参考答案
- 第八章 集成学习-机器学习(周志华) 参考答案
- Windows Server 2012 R2安装MySQL 5.7
- windows下使用bat脚本操作ftp服务器
- 浅谈java异常[Exception]
- 基于haystack的分布式小文件存储系统bfs
- lua & c & c++
- 机器学习(周志华) 参考答案 第十二章 计算理论学习
- 自定义动画
- Android基础-Android中的HashMap浅析
- open()和fopen()的区别
- 二叉树的遍历(先序/中序/后序,递归/迭代)与搜索
- rabbitmq+haproxy+keepalived实现高可用集群搭建
- 1875: [SDOI2009]HH去散步
- 共享内存做进程间消息队列
- HTML5概述