复旦大学吴立德《深度学习》课程总结
来源:互联网 发布:ubuntu 关闭图形界面 编辑:程序博客网 时间:2024/04/30 04:13
对深度学习一直没找到系统的中文资料,在优酷找到了吴立德老师2013年开的深度学习课程视频。花三天简单看了一下,做一个简单总结,供没看过的人士参考要不要看及要看哪几集。此课程一共十四个课时
视频地址:http://www.youku.com/playlist_show/id_21508721.html
Part1 基础知识(1-3节)
1 概述
讲了ML的问题的三个基本方面:数据、模型和准则。准则可以理解为模型的优化目标。
此后全文对每个模型的讲解都是从这三个方面来讲。
深度学习(DL)的最大困难:可训练参数太多,非凸优化,解释困难(可以通过可视化手段改善)。
深度学习成功的运用场景:语音识别和目标识别。在NLP中达到了传统方法的效果。
解决DL学习问题的三种手段:卷积(褶积)神经网络(CNN),限制玻尔兹曼机(RBM)和自动编码机(AE)
2 前馈神经网BP算法
主要讲解了传统神经网络的训练方法,对梯度下降法进行了详细说明。对BP算法进行了细致的推倒。
3 学习优化问题&稀疏编码
前半部学习优化问题主要搭建了多层神经网络的框架。
后半部介绍了稀疏编码的思想和相对应的准则。
Part2 深度学习理论(4-9节)
4 DN&&DL
DN是一个深度的前馈神经网络(FNN)+分类器。
先讲了线性回归、logistic回归和SVM分类器三种分类手段。
DL面临的主要问题:参数多、非凸、梯度弥散。
5 自编码器&&逐层学习
DL的第一种实现方法:自编码器。每层使用一个三层的前馈神经网络,令输入和输出相同来实现自编码器。
步骤:先利用自编码器做预学习,再利用监督学习做微调。
6 自编码器&&RBM
本文基本是按照课上所说文章《Reducing the dimensionality with neural networks》来讲的
限制玻尔兹曼机的概率分布计算方法。
7 基于RBM的DL方法
基于RBM的深度学习网络的构建。
8 CNN卷积神经网络
这一课主要是图解,没有复杂的公式,也没有讲参数的推导方法。
9 复习总结
Part3 应用
10-12 自然语言处理
10 神经概率语言模型
使用神经网络做自然语言处理的方法,只用到一般的神经网络。
11 几乎无需语言知识的自然语言处理
窗口方法,与第12节的句子方法相对应。
12 句子模型方法
13-14 图像识别,其中13为有监督识别,14为无监督识别
13 深度褶积网
14 大规模无监督高层特征构建
- 复旦大学吴立德《深度学习》课程总结
- 《深度学习课程》-吴立德教授-复旦大学
- 复旦大学吴立德《数值优化》、《深度学习》和
- 深度学习DeepLearning.ai系列课程学习总结:课程概述
- cs231深度学习课程,注意点总结
- 吴立德教授深度学习课程笔记
- 上海复旦大学吴立德教授深度学习课程一
- 上海复旦大学吴立德教授深度学习课程二
- 上海复旦大学吴立德教授深度学习课程三
- 上海复旦大学吴立德教授深度学习课程四
- 上海复旦大学吴立德教授深度学习课程五
- 上海复旦大学吴立德教授深度学习课程六
- 深度学习课程推荐
- 吴恩达《深度学习》课程
- 龙星计划2013深度学习课程小总结
- cs231深度学习课程,注意点总结(2)
- 干货丨吴恩达深度学习课程的思维导图总结
- 吴恩达 深度学习 Class1 课程总结及编程实践
- c++设计模式(外观模式)
- Vol3.5.8.1 直接CALL或JMP到目的代码段时的特权级检查[5.8.1 Direct Calls or Jumps to Code Segments]
- iOS响应者链
- TCP/IP协议与UDP协议的区别
- Lua学习笔记(一)
- 复旦大学吴立德《深度学习》课程总结
- Spring3 MVC 注解(一)---注解基本配置及@controller和 @RequestMapping 常用解释
- C语言 变量声明和定义的区别
- 如何与移动开发者交谈 给测试员的六条建议
- Java中Map集合遍历方式总结
- BIOS启动下磁盘各引导区的引导顺序描述
- c++设计模式(建造者模式(生成器模式))
- Swiper说明及API手册说明
- js 定时器页面和外链使用差异