一文读懂 CNN、DNN、RNN 内部网络结构区别

来源:互联网 发布:java微信客服系统源码 编辑:程序博客网 时间:2024/05/20 08:41

从广义上来说,NN(或是更美的DNN)确实可以认为包含了CNNRNN这些具体的变种形式。在实际应用中,所谓的深度神经网络DNN,往往融合了多种已知的结构,包括卷积层或是LSTM单元。但是就题主的意思来看,这里的DNN应该特指全连接的神经元结构,并不包含卷积单元或是时间上的关联。

因此,题主一定要将DNNCNNRNN等进行对比,也未尝不可。其实,如果我们顺着神经网络技术发展的脉络,就很容易弄清这几种网络结构发明的初衷,和他们之间本质的区别。神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。

早期感知机的推动者是Rosenblatt(扯一个不相关的:由于计算技术的落后,当时感知器传输函数是用线拉动变阻器改变电阻的方法机械实现的,脑补一下科学家们扯着密密麻麻的导线的样子…)但是,Rosenblatt的单层感知机有一个严重得不能再严重的问题,即它对稍复杂一些的函数都无能为力(比如最为典型的异或操作)

连异或都不能拟合,你还能指望这货有什么实际用途么o()o随着数学的发展,这个缺点直到上世纪八十年代才被RumelhartWilliamsHintonLeCun等人(反正就是一票大牛)发明的多层感知机(multilayer perceptron)克服。多层感知机,顾名思义,就是有多个隐含层的感知机(废话……)。好好,我们看一下多层感知机的结构:

说明: http://s3.51cto.com/wyfs02/M00/89/3C/wKiom1gNj9Wyo6rQAAAxEyDG5Qg867.jpg
1上下层神经元全部相连的神经网络——多层感知机

多层感知机可以摆脱早期离散传输函数的束缚,使用sigmoidtanh等连续函数模拟神经元对激励的响应,在训练算法上则使用Werbos发明的反向传播BP算法。

对,这货就是我们现在所说的神经网络NN——神经网络听起来不知道比感知机高端到哪里去了!这再次告诉我们起一个好听的名字对于研(zhuang)(bi)很重要!多层感知机解决了之前无法模拟异或逻辑的缺陷,同时更多的层数也让网络更能够刻画现实世界中的复杂情形。

相信年轻如Hinton当时一定是春风得意。多层感知机给我们带来的启示是,神经网络的层数直接决定了它对现实的刻画能力——利用每层更少的神经元拟合更加复杂的函数[1] (Bengio如是说:functions that can be compactly represented by a depth k architecture might require an exponential number of computational elements to be represented by a depth k − 1 architecture.)

即便大牛们早就预料到神经网络需要变得更深,但是有一个梦魇总是萦绕左右。随着神经网络层数的加深,优化函数越来越容易陷入局部最优解,并且这个陷阱越来越偏离真正的全局最优。利用有限数据训练的深层网络,性能还不如较浅层网络。

同时,另一个不可忽略的问题是随着网络层数增加,梯度消失现象更加严重。具体来说,我们常常使用sigmoid作为神经元的输入输出函数。对于幅度为1的信号,在BP反向传播梯度时,每传递一层,梯度衰减为原来的0.25。层数一多,梯度指数衰减后低层基本上接受不到有效的训练信号。

2006年,Hinton利用预训练方法缓解了局部最优解问题,将隐含层推动到了7[2],神经网络真正意义上有了深度,由此揭开了深度学习的热潮。这里的深度并没有固定的定义——在语音识别中4层网络就能够被认为是较深的,而在图像识别中20层以上的网络屡见不鲜。

为了克服梯度消失,ReLUmaxout等传输函数代替了sigmoid,形成了如今DNN的基本形式。单从结构上来说,全连接的DNN和图1的多层感知机是没有任何区别的。值得一提的是,今年出现的高速公路网络(highway network)和深度残差学习(deep residual learning)进一步避免了梯度消失,网络层数达到了前所未有的一百多层(深度残差学习:152)[3,4]!

具体结构题主可自行搜索了解。如果你之前在怀疑是不是有很多方法打上了深度学习的噱头,这个结果真是深得让人心服口服。

说明: http://s3.51cto.com/wyfs02/M00/89/39/wKioL1gNj-qhXWryAAIgfwMgLWA232.png
2缩减版的深度残差学习网络,仅有34层,终极版有152

如图1所示,我们看到全连接DNN的结构里下层神经元和所有上层神经元都能够形成连接,带来的潜在问题是参数数量的膨胀。假设输入的是一幅像素为1K*1K的图像,隐含层有1M个节点,光这一层就有10^12个权重需要训练,这不仅容易过拟合,而且极容易陷入局部最优。

另外,图像中有固有的局部模式(比如轮廓、边界,人的眼睛、鼻子、嘴等)可以利用,显然应该将图像处理中的概念和神经网络技术相结合。此时我们可以祭出题主所说的卷积神经网络CNN对于CNN来说,并不是所有上下层神经元都能直接相连,而是通过卷积核作为中介。同一个卷积核在所有图像内是共享的,图像通过卷积操作后仍然保留原先的位置关系。

两层之间的卷积传输的示意图如下:

说明: http://s4.51cto.com/wyfs02/M00/89/39/wKioL1gNj_ngfqYKAABut3-RAzc578.jpg
3卷积神经网络隐含层

通过一个例子简单说明卷积神经网络的结构。假设图3m-1=1是输入层,我们需要识别一幅彩色图像,这幅图像具有四个通道ARGB(透明度和红绿蓝,对应了四幅相同大小的图像),假设卷积核大小为100*100,共使用100个卷积核w1w100(从直觉来看,每个卷积核应该学习到不同的结构特征)

w1ARGB图像上进行卷积操作,可以得到隐含层的第一幅图像;这幅隐含层图像左上角第一个像素是四幅输入图像左上角100*100区域内像素的加权求和,以此类推。

同理,算上其他卷积核,隐含层对应100图像。每幅图像对是对原始图像中不同特征的响应。按照这样的结构继续传递下去。CNN中还有max-pooling等操作进一步提高鲁棒性。

说明: http://s1.51cto.com/wyfs02/M01/89/3C/wKiom1gNkBTymSV9AABb8M6q44M284.jpg
4一个典型的卷积神经网络结构

注意到最后一层实际上是一个全连接层,在这个例子里,我们注意到输入层到隐含层的参数瞬间降低到了100*100*100=10^6!这使得我们能够用已有的训练数据得到良好的模型。题主所说的适用于图像识别,正是由于CNN模型限制参数了个数并挖掘了局部结构的这个特点。顺着同样的思路,利用语音语谱结构中的局部信息,CNN照样能应用在语音识别中。

全连接的DNN还存在着另一个问题——无法对时间序列上的变化进行建模。然而,样本出现的时间顺序对于自然语言处理、语音识别、手写体识别等应用非常重要。对了适应这种需求,就出现了题主所说的另一种神经网络结构——循环神经网络RNN

在普通的全连接网络或CNN中,每层神经元的信号只能向上一层传播,样本的处理在各个时刻独立,因此又被成为前向神经网络(Feed-forward Neural Networks)。而在RNN中,神经元的输出可以在下一个时间戳直接作用到自身,即第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括其自身在(m-1)时刻的输出!表示成图就是这样的:

说明: http://s5.51cto.com/wyfs02/M01/89/39/wKioL1gNkCXARPGaAABvX2hmbaY788.jpg

5 RNN网络结构

我们可以看到在隐含层节点之间增加了互连。为了分析方便,我们常将RNN在时间上进行展开,得到如图6所示的结构:

说明: http://s1.51cto.com/wyfs02/M02/89/3C/wKiom1gNkDbwKUXqAABWGOBF1ic125.jpg
6 RNN在时间上进行展开

Cool(t+1)时刻网络的最终结果O(t+1)是该时刻输入和所有历史共同作用的结果!这就达到了对时间序列建模的目的。不知题主是否发现,RNN可以看成一个在时间上传递的神经网络,它的深度是时间的长度!正如我们上面所说,梯度消失现象又要出现了,只不过这次发生在时间轴上。

对于t时刻来说,它产生的梯度在时间轴上向历史传播几层之后就消失了,根本就无法影响太遥远的过去。因此,之前说所有历史共同作用只是理想的情况,在实际中,这种影响也就只能维持若干个时间戳。

为了解决时间上的梯度消失,机器学习领域发展出了长短时记忆单元LSTM,通过门的开关实现时间上记忆功能,并防止梯度消失,一个LSTM单元长这个样子:

说明: http://s3.51cto.com/wyfs02/M02/89/39/wKioL1gNkEXChKAiAAAyo588Yzo577.jpg
7 LSTM的模样

除了题主疑惑的三种网络,和我之前提到的深度残差学习、LSTM外,深度学习还有许多其他的结构。举个例子,RNN既然能继承历史信息,是不是也能吸收点未来的信息呢?

因为在序列信号分析中,如果我能预知未来,对识别一定也是有所帮助的。因此就有了双向RNN、双向LSTM,同时利用历史和未来的信息。

说明: http://s5.51cto.com/wyfs02/M01/89/3C/wKiom1gNkGCRKWulAACDKCn96q4426.jpg
8双向RNN

事实上,不论是那种网络,他们在实际应用中常常都混合着使用,比如CNNRNN在上层输出之前往往会接上全连接层,很难说某个网络到底属于哪个类别。不难想象随着深度学习热度的延续,更灵活的组合方式、更多的网络结构将被发展出来。

尽管看起来千变万化,但研究者们的出发点肯定都是为了解决特定的问题。题主如果想进行这方面的研究,不妨仔细分析一下这些结构各自的特点以及它们达成目标的手段。

入门的话可以参考:

Ng写的UfldlUFLDL教程 – Ufldl

也可以看Theano内自带的教程,例子非常具体:Deep Learning Tutorials

欢迎大家继续推荐补充。

参考文献:

[1] Bengio Y. Learning Deep Architectures for AI[J]. Foundations & Trends® in Machine Learning, 2009, 2(1):1-127.

[2] Hinton G E, Salakhutdinov R R. Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006, 313(5786):504-507.

[3] He K, Zhang X, Ren S, Sun J. Deep Residual Learning for Image Recognition. arXiv:1512.03385, 2015.

[4] Srivastava R K, Greff K, Schmidhuber J. Highway networks. arXiv:1505.00387, 2015.

 

 


相关推荐
  • 雅虎出售资产,梅耶尔将获补偿金1.86亿美元

    雅虎出售资产,梅耶尔将获补偿金1.8…

  • 也玩全方位产业链,看看龙芯的跨越式新布局

    也玩全方位产业链,看看龙芯的跨越式新…

  • 连换几任CEO,万达电商折戟之谜

    连换几任CEO,万达电商折戟之谜

  • 马云最新演讲,很多判断让人听得毛骨悚然!

    马云最新演讲,很多判断让人听得毛骨悚…

  • 能够学习的人工神经突触 人造大脑已在地平线?

    能够学习的人工神经突触 人造大脑已在…

  • 快速鉴别早期胃癌!IBM与安翰探索认知影像技术

    快速鉴别早期胃癌!IBM与安翰探索认…

  • 精美绝伦的吸顶灯,还节能环保,没谁了

    精美绝伦的吸顶灯,还节能环保,没谁了

  • 不想早亡,晨起这5个坏习惯就改掉吧!

    不想早亡,晨起这5个坏习惯就改掉吧!

最新最早最热
  • 0条评论
  • 还没有评论,沙发等你来抢
1

比特网正在使用多说

明星科技范
郑爽后援会解散 看明星后援会的那些惊人之举

郑爽后援会解散 看明星后援会的那些惊人之举

谣言终结者

土鸡蛋好?如何挑到好鸡蛋?我们错了好多年!

比特网2017-04-10 15:48:53

家中的长辈总说,土鸡蛋比普通鸡蛋要好,这么多年来,我们深以为然。但其实很多你以为正…

这几类蜂蜜根本不可能存在,可别再被忽悠了!

北京将取消小客车摇号?

最近更新
防违规、抓内鬼 360发布业务安全解决方案2017-04-26 10:07:35
雅虎出售资产,梅耶尔将获补偿金1.86亿美元2017-04-26 09:52:58
教育"遇见"互联网,360推广以服务、高效运营致胜2017-04-26 09:39:05
智能科技近家庭 极米光影改变生活2017-04-25 21:26:33
腾讯云再开北京广州2个黑石数据中心2017-04-25 21:22:16
2017中国电子商务创新发展峰会召开2017-04-25 16:46:58
也玩全方位产业链,看看龙芯的跨越式新布局2017-04-25 15:05:16
HUAWEI nova 青春版扮靓出游新造型2017-04-25 12:46:57
美光科技和微软宣布合作以提高物联网的安全性2017-04-25 10:57:22
Fortinet新中文名诠释新安全体系2017-04-25 10:30:26
连换几任CEO,万达电商折戟之谜2017-04-26 09:57:49
科普
物理生物 环境 天文 医学 食物 法证 地学 心理 化学 科幻 传播

科普图集
带着朋友和机器人上月亮散步

带着朋友和机器人上月亮散步>>详情

比食人鱼更恐怖:长着人类牙齿的鱼

比食人鱼更恐怖:长着人类牙齿的鱼>>详情

比特焦点

  • 企业IT采购引擎
  • 热点新闻
  • 网宿互联网大会
  • 第六届CIO年会
  • 软交会
  • IDF 2013
  • 爱普生
  • MWC
  • CES
  • 云计算
  • 虚拟化
  • vmware
  • 企业IT采购
  • oracle
  • 微软
  • Windows8
  • 大数据
  • CMO
  • CIO
  • ThinkServer
  • ARM
  • Windows Server 2012
  • BI
  • hadoop
  • 超级本
  • 移动信息化

邮件订阅

软件信息化周刊
比特软件信息化周刊提供以数据库、操作系统和管理软件为重点的全面软件信息化产业热点、应用方案推荐、实用技巧分享等。以最新的软件资讯,最新的软件技巧,最新的软件与服务业内动态来为IT用户找到软捷径。
商务办公周刊
比特商务周刊是一个及行业资讯、深度分析、企业导购等为一体的综合性周刊。其中,与中国计量科学研究院合力打造的比特实验室可以为商业用户提供最权威的采购指南。是企业用户不可缺少的智选周刊!
网络周刊
比特网络周刊向企业网管员以及网络技术和产品使用者提供关于网络产业动态、技术热点、组网、建网、网络管理、网络运维等最新技术和实用技巧,帮助网管答疑解惑,成为网管好帮手。
服务器周刊
比特服务器周刊作为比特网的重点频道之一,主要关注x86服务器,RISC架构服务器以及高性能计算机行业的产品及发展动态。通过最独到的编辑观点和业界动态分析,让您第一时间了解服务器行业的趋势。
存储周刊
比特存储周刊长期以来,为读者提供企业存储领域高质量的原创内容,及时、全面的资讯、技术、方案以及案例文章,力求成为业界领先的存储媒体。比特存储周刊始终致力于用户的企业信息化建设、存储业务、数据保护与容灾构建以及数据管理部署等方面服务。
安全周刊
比特安全周刊通过专业的信息安全内容建设,为企业级用户打造最具商业价值的信息沟通平台,并为安全厂商提供多层面、多维度的媒体宣传手段。与其他同类网站信息安全内容相比,比特安全周刊运作模式更加独立,对信息安全界的动态新闻更新更快。
新闻中心热点推荐
新闻中心以独特视角精选一周内最具影响力的行业重大事件或圈内精彩故事,为企业级用户打造重点突出,可读性强,商业价值高的信息共享平台;同时为互联网、IT业界及通信厂商提供一条精准快捷,渗透力强,覆盖面广的媒体传播途径。
云计算周刊
比特云计算周刊关注云计算产业热点技术应用与趋势发展,全方位报道云计算领域最新动态。为用户与企业架设起沟通交流平台。包括IaaS、PaaS、SaaS各种不同的服务类型以及相关的安全与管理内容介绍。
CIO俱乐部周刊
比特CIO俱乐部周刊以大量高端CIO沙龙或专题研讨会以及对明星CIO的深入采访为依托,汇聚中国500强CIO的集体智慧。旨为中国杰出的CIO提供一个良好的互融互通 、促进交流的平台,并持续提供丰富的资讯和服务,探讨信息化建设,推动中国信息化发展引领CIO未来职业发展。
IT专家网
IT专家新闻邮件长期以来,以定向、分众、整合的商业模式,为企业IT专业人士以及IT系统采购决策者提供高质量的原创内容,包括IT新闻、评论、专家答疑、技巧和白皮书。此外,IT专家网还为读者提供包括咨询、社区、论坛、线下会议、读者沙龙等多种服务。
X周刊
X周刊是一份IT人的技术娱乐周刊,给用户实时传递I最新T资讯、IT段子、技术技巧、畅销书籍,同时用户还能参与我们推荐的互动游戏,给广大的IT技术人士忙碌工作之余带来轻松休闲一刻。

0 0