深度学习-AlexNet入门

来源:互联网 发布:lte网络优化工作怎么样 编辑:程序博客网 时间:2024/05/16 06:35
对AlexNet的理解
在ImageNet举办的大规模图像识别比赛ILSVRC2012中分类比赛中,Hinton以及他的学生Alex为了回应外界对于深度学习的质疑,他们搭建了一个8层的CNN,命名为AlexNet,最终比赛top-5的漏报率是16%,抛离而第二名的27%整整有11个百分点,勇夺冠军,从此深度学习更是声名鹊起。

对于这个CNN,我们可以这样子理解:
(有的CNN名词小伙伴们不理解的可以先看我的另外一篇博客深度学习-CNN入门点击打开链接)

结构:
卷积操作减少了参数,并且将萃取出来的特征传到了下一层,而下一层的池化操作,则将一些特征进行了合并,减少了特征数量,还有效地防止了特征过多导致的过拟合现象,通过将这个过程重复若干次,得到了一些高层次的特征,接着,我们的思路就是使用这些特征来进行分类。这个时候我们就搭建一个神经网络,将高层次特征输入到这个神经网络中,输出的就是分类的结果。
当然,我个人认为使用其他分类器也是未尝不可的,我还没有尝试过,下一次再尝试吧。

训练:
说到AlexNet的训练问题,首先我们要完成萃取特征部分的训练,这个训练是怎么回事儿呢?要知道,我们的目的是通过训练,来得到输入图像,输出特征的效果,于是这个让我们想起了自动编码器(无监督),对的,通过输入图像->输出特征->特征再次组合成为图像这个过程,以输入图像和输出图像的相似性最大为目标,那么训练出出来的这个网络,去掉最后的输出图像,那么就是输出特征了啦。
特征有了,那么接下来就是设计分类器了,以这个个特征作为输入,以分类目标作为输出,使用任何分类器都可以,作者使用的是神经网络,这个神经网络的训练,就是有监督训练了,通过特征-分类labelVS实际label,可以用后向传播法来进行训练。

0 0
原创粉丝点击