【deep learning学习笔记】最近读的几个ppt(二)

来源:互联网 发布:怎么开淘宝活动 编辑:程序博客网 时间:2024/06/05 09:25

《Machine Learning and AI via Brain simulations_Andrew Ng_2013》

Andrew Ng今年三月份在清华做的一篇报告,ppt,109页。

1. 从图像识别,讲特征表示,如:月hi辆摩托车的图像,在电脑中表示为像素矩阵,不过在人脑中,由轮子、把手等各个组件组成。

2. 进一步讲特征表示,如:NLP中,一句话,可以句法分析为一个树状表示,树的每一层,都是一种特征表示。此外,词性标注、wordnet语义等都是特征

3. 指出,特征表示在实际工作中更加重要,并且是难点

4. 特征表示是很难的,一方面我们可以直接表示,构建特征工程,但是很难。另一方面,我们可以用“训练好的算法”表示,如:神经网络。这些算法的结果就表示了特征,但是用来训练算法的方法并不难。

5. 传统的supervise learning,作者对比了几个分类器,当数据量很大的时候,分类器性能相当。所以,实际解决问题的时候,往往不在所用的方法,而在于数据的大小。

6. 缺点:

(1)没有融合先验知识

(2)Unsupervised feature learning有些任务还不能做:video等、层次化的知识表示、活动探测、图像分类

(3)学习到的feature不很直观被理解


《Advanced topics + Research philosophy_Andrew Ng_2013》

这个和上一个ppt连在一起的。

1. 学习递归的表示方法:用的NLP句法分析任务作为例子

句法分析中,每一个元素(词、词组、短句)都用一个n维实数向量来表示,学习的任务就是学习这些实数向量。逐层句法分析抓变成了每一层都是神经网络,学习任务转成了学习神经网络中的特定节点的值。

参考文献:Distributional representations, or Bengio et al., 2003, Collobert & Weston, 2008

2. 对比parsing sentence and parsing image

3. “Deep learning” has had two big ideas:
–Learning multiple layers of representation
–Learning features from unlabeled data

4. Detailed tutorial: http://deeplearning.stanford.edu


《A Tutorial on Deep Learning_KaiYu_2013》

于凯老师是美国归国博士,是baidu多媒体部的副总监。

1. 把机器学习分为了几个时代:

(1)从80年代晚期开始,分类器时代:svm、最大熵等

(2)2000年以后,结构化学习时代:核方法、半监督学习等

2. 特征学习是关键,从前神经网络往往靠tricks

3. deep learning 取得的一系列成就,both学术界 and 工业界

4. deep learning的 building block

(1)RBM学习,Layerwise Pre-training

(2)Autoencoder Neural Net

(3)Sparse Coding    

5. Go deeper:  Layerwise feature learning

6. Fine tuning via Backpropogation     
–  If data are  big  enough, direct fine tuning is enough

7. 最后谈了如何把算法并行化,谈的不多,不过感觉这个才是deep learning的关键