【CS231n Winter 2016 Lecture 2 (Image classifier,NN/KNN/linear classifier)】

来源:互联网 发布:旺旺id是淘宝昵称吗 编辑:程序博客网 时间:2024/05/29 08:11

Lecture 2

上一讲结束后,李飞飞就回家生孩子了。这一讲是Andrej Karpathy讲
语速较快,不过听着还行,当练练听力。

上来就说先把image classifier给搞定了,然后各种渲染classifier is a challengeable task. 举的是猫的例子,在不同的照片角度,光照,猫的姿态,品种等各种“干扰”下,分类器都应该robust. 贴一个图来体会体会,我也是醉了。。

这里写图片描述

但是现在的分类器已经能够又快又好地解决这个问题了,精度不亚于人类,这节课就来学习。对于image classifier前人已颇有建树,但是需要feature engineering

这里写图片描述

这节课要学的东西(data-driven算法)则很好的解决了这个麻烦的feature engineering的问题

这里写图片描述

第一个分类器,NN/最近邻算法

这里写图片描述

计算距离的方法:

这里写图片描述

但是NN的缺点是 instant train but expensive test. 每次的预测/test时间复杂度正比于训练样本的个数
有一个可以加速NN的方法(下图的一个库),但是这是题外话。

这里写图片描述

有两种distance的衡量方法 曼哈顿距离/欧几里得距离

这里写图片描述

另一种分类器是KNN(多数表决思想),NN的变种。下图比较了NN与5-NN

这里写图片描述

说到NN在训练集上的误差为0,而KNN的训练误差不为0
接着说怎么选择distance/k,答案是不唯一,而是problem-dependent

这里写图片描述

怎么得到hyperparameters? 说到一种方法,就是看遍历所有的distance/k…看哪种在train data上表现最好。 然后说,这样其实不是最好的方法,因为会过拟合,泛化能力差。这属于ML的基础知识,就不展开了

这里写图片描述

实际中用到的是交叉验证, 比如下图的five-fold cross-validation

这里写图片描述

举了一个例子,比如对于不同的k使用五重交叉验证得到下图的结果,其中图中每一列有5个点,从图中可以看出,accuracy大致先升后降,k约为7时最佳。同样的可以对不同的distance或者或模型(因为hyperparameters事实上是可以包括不同的假设函数/模型的)等使用此种方法考察。

这里写图片描述

KNN实际中基本不用

这里写图片描述

一个总结:。。。原来validation和cross-validation并不一样,后者是train data 太少时采用的

这里写图片描述

下面一系列讲线性分类器,为CNN铺垫。(讲课思路是以模型为导向,前边讲分类器是以任务为导向的)

这里写图片描述

主讲人觉得玩神经网络就像完乐高积木(不同的层拼到一起),这样想法的原因源于讲课人曾经做过的一个用一句话描述图片的工作

这里写图片描述

CNN适合为图像建模,RNN适合为序列建模/sequence model,比如用一句话描述图片中的一句话就是属于序列。下图将CNN(用于see image)和RNN(用于describe image)“拼”到了一起(见图中的箭头) ,所以就想玩乐高积木一样! 真形象!!!

我们会慢慢向着这个模型进发,大约到课程中段我们就能搞定这个模型!(很期待。。)

这里写图片描述

重新回到CIFAR-10分类问题上来

这里写图片描述

我们解决这个(分类)问题的方法是通过——参数模型的方法,下图相当于一个从3072维到10维的映射,参数为W。具体地,我们接下来会讲到几种参数模型,首先是线性模型,然后延伸到神经网络,最后是CNN
PS:先前讲到的NN/KNN是非参数模型,因为没有指定的需要优化的参数,这是参数模型与非参模型的主要差别(原来如此。。)

这里写图片描述

线性分类器:

这里写图片描述

举了一个例子:

这里写图片描述

怎么解释线性分类器呢(insight)?
W矩阵的每一行(对应一个分类器)都可以看做对整幅图(x列向量)做了一个template,或者通俗地说就是“赋权”。可视化为下图(一共十行,也就是对应十个类),然后注意到倒数第三类,是一只马,但是却很模糊了,问为什么template会这么模糊呢?
解释的原因是,因为这个线性分类器对于position不够鲁棒,所以一个马的template会出现几个马头等等之类的,也挺好理解的。但是在神经网络中不会出现这种情况,因为神经网络会对不同位置的马分别学习template。大概就这种意思。。

这里写图片描述

接着补充了另一种线性分类器的解释:没听太懂,估摸就是找到每一类的主方向吧

这里写图片描述

然后讨论什么情况的数据集,线性分类器可能会搞砸呢?其实例子很多,也比较容易想,比如一直金毛狗,然后位置到处都有的数据集。。或者从数学上来看,只要是高维线性不可分的就分不好。

这里写图片描述

最后说道为了量化分类的好坏,有必要以数学形式给出损失函数

这里写图片描述

以后解决问题的流程就是:提出损失函数,优化损失函数(得到模型参数),慢慢地会过渡到CNN

这里写图片描述

That’s all, lecture 2 done!


1 0
原创粉丝点击