Neural Networks and Deep Learning的学习建议

来源:互联网 发布:matlab 矩阵[ ] 编辑:程序博客网 时间:2024/06/05 01:00

前言

刚刚完成了coursera上Neural Networks and Deep Learning这门课程的学习,并通过考核。在这里记录一下学习感受,来为大家提供一些关于这门课的资料和学习建议。
ps关于课后作业真的还是自己做一遍比较好。

课程简介

Neural Networks and Deep Learning这门课是Deeplearning.ai在cousera的系列课程的第一门课,主要作用是为学习者提供神经网络和深度学习的基础知识,为下一步的深入学习打好基础。
这门课程还是秉承着吴恩达的一贯风格,学习门槛很低,思路清晰,表达流畅,语速也较低,即使没有字幕的帮助一般水平的学习者也能扛得住。而且Andrew Ng为了打出特色特意为学习者增加了AI研发领域领军任务的访谈,这部分内容很有特色,不容错过。

关于费用

不交钱可以是听课的,但是不能完成课程的练习和考试,最终无法获得官方的认证。

Deeplearning.ai系列课程的收费机制非常特殊,是按照学习时间决定的,目前的费用是每个月49美金。按月来续订课程,如果指定时间未通过则还需要续订,直到全部通过,也就是说如果是学习能力特别强的人就算是只订一个月也可以只交49,12588。

这种收费方式我是非常认可和欣赏的,站着还把钱挣了的典范。

主要内容

课程大纲

  1. 深度学习简介,基本概念以及趋势
  2. 神经网络基础,基本模型
  3. 浅神经网络,含有一个隐含层的网络数学模型
  4. 深度神经网络,多层神经网络的优化过程

神经网络的核心流程

这部分简单介绍一下神经网络的核心计算流程,即神经网络的机器学习的实现原理,即网络优化的过程。这也是这门课讲述的核心流程。
1.初始化网络参数
2.正向计算神经网络的输出

Z[l]=W[l]A[l1]+b[l]

σ(Z)=11+eZ

RELU(Z)=max(0,Z)

3.计算与实际的差距J
J=1mi=1m(y(i)log(a[L](i))+(1y(i))log(1a[L](i)))

4.根据差距来反向计算神经网络权重的变化值
dW[l]=LW[l]=1mdZ[l]A[l1]T

db[l]=Lb[l]=1mi=1mdZ[l](i)

dA[l1]=LA[l1]=W[l]TdZ[l]

5.更新网络权重
W[l]=W[l]α dW[l]

b[l]=b[l]α db[l]

6.重复2~5的步骤直到达到收敛标准
如下图所示:
https://hub.coursera-notebooks.org/user/zkgeeshvlrbymteumljysy/notebooks/Week%204/Building%20your%20Deep%20Neural%20Network%20-%20Step%20by%20Step/images/final%20outline.png

学习建议

1.需要一定的英语水平,因为课程字幕并没有完全汉化,所以有些视频需要纯靠听力。同时我觉得字幕有时候会分散学习者的注意力,所以还是推荐听为主。
2.需要基本的python能力,因为这次课程的作业需要以python来完成,因此基本的python能力是需要的,当然使用的时候现场查也是可以的。
3.我是每天消耗不到三十分钟的时间,在一个月内完成的这门课程,基本符合官方的数据。
4.对于想学习人工智能的人来说,这门课绝对是入门首选。