(三)深度学习基本思想:分层的特征表示

来源:互联网 发布:知乎ios7 编辑:程序博客网 时间:2024/05/16 06:44

参考文献:http://blog.csdn.net/zouxy09/article/details/8775518

      假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:

I =>S1=>S2=>…..=>Sn => O

        如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。信息论中有个信息逐层丢失的说法(信息处理不等式),设处理a信息得到b,再对b处理得到c,那么可以证明:ac的互信息不会超过ab的互信息。这表明信息处理不会增加信息,大部分处理会丢失信息。当然了,如果丢掉的是没用的信息那多好啊),保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。现在回到我们的主题Deep Learning,我们需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设我们设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1…, Sn

       对于深度学习来说,其思想就是对堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。

       另外,前面是假设输出严格地等于输入,这个限制太严格,我们可以略微地放松这个限制,例如我们只要使得输入与输出的差别尽可能地小即可,这个放松会导致另外一类不同的Deep Learning方法。上述就是Deep Learning的基本思想。

0 0
原创粉丝点击