FPGA机器学习之龙星计划机器学习第九堂

来源:互联网 发布:侧吸好还是顶吸好 知乎 编辑:程序博客网 时间:2024/04/29 00:48

给数据随机采样。分布为D。采样后的离散数据是Sn,也是训练数据。E最小均方误差小于一定程度D。

A是训练算法。训练错误,最下面是测试错误。

这些是判定训练算法是否够好。

三个错误表达。wx是否同号。同号就是错误1,不同号就是0.

test error是一样的

test error当然是越小越好。

开根号里面是表示训练集和测试集的相似程度。   相似错误就低,就是这个意思。

上面是选取最好的线性分类器的error

下面也是在这个基础上的一个表示式。

提示的是,这里面的W上的表示。上一个幻灯片的表达式,是这张图的相加结果。

 

mean平均数。切洛夫界限。

上面的公式就是切罗夫边界。下面的公式后面有证明。

这算什么证明呀。在证明什么,我还没看出来。

 

以为线性分类器是无限的L无穷。可是值是有边界的。最多是2的n次方。n个数嘛。最后也还是要求那个想θ的那个数。

像θ的那个就是covering number。下面就用VC方法求。

没懂。听听例子,看看能懂嘛。

shatter翻译成分开就可以了。最上面描述数据是2维空间。H是线性分离器函数。3个点就一定可以存在一个

H把数据分离。但是4个点就不一定,就像图上画的那样。所以至少要3个维度。所以VC dimension就是3.

没懂这些式子都是什么意思。

这里是另外一个方法了。那个西格玛随机是正负一。测试集就是负1,那训练集技术正1.

 

微笑我能力有限,但是我在努力的学习。现在很多都不懂。写的都不一定准确。

 

 

 

0 0