机器学习第四周(一)
来源:互联网 发布:追溯软件 编辑:程序博客网 时间:2024/06/05 01:58
1、Non-linear hypotheses,引入课程中的一幅图片
对于图中的数据,只有俩个feature,分类效果尚能令人满意,但当feature数量不断增大时,假设函数中二次项数会剧增,比如feature为100时,此时二次项数为(100*100)/2=5000个
作者后面又举了一个识别汽车的例子,在一幅50*50像素的图片中,特征量能达到2500个,那么二次项就有(2500*2500)/2约3million个
所以对这些拥有大的feature数据,需要引入神经网络来表示假设函数。
2、Model Represent,从一个简单的神经元引入
如图,有三个feature,将feature作为输入,同样加入x0并置1,这里我们称x0为偏置项(bias unit)。输入经过一个神经元,最后得到我们的假设函数,假设函数形式任然采用Sigmoid函数,在这里称Sigmoid函数为激活函数(activation function),也称theta为权值(weights)。
同样,当扩展到多个神经元时如下:
这里我们称layer1为输入层(input layer),layer3为输出层(output layer),介于layer1和layer3之间的为隐藏层(hidden layers),这里为layer2.同时,我们称隐藏层的结点为激活结点(activation units)。a0项也为1(也称做偏置项(bias unit)).
以一个具体神经网络为例解释计算过程:
项称第j层第i个结点
项称为第j层到第j+1层权值矩阵。并且有S(j)表示第j层的结点数,S(j+1)表示第j+1层结点数。
3、vectorized implementation(向量化表示)
以图中每个激活结点和假设函数的的具体计算过程为例。
我们引入变量Z并给出向量化实现:
以第二层为例,k表示结点序号,向量Z为:
因为所以我们得到Z的公式(其中j大于等于1)
所以激活结点的向量化表示如下:
进一步化简
同时,也得到假设函数的向量化表示如下:
- 机器学习第四周(一)
- 机器学习第四周
- 机器学习第四周(二)
- 机器学习-学习笔记 学习总结归纳(第四周)
- 斯坦福机器学习第四周(神经网络及其应用)
- Stanford机器学习---第四周.神经网络模型
- 吴恩达机器学习笔记_第四周
- 机器学习集训营---第四周总结
- 机器学习 第四周 总结 知识点
- 机器学习第一周(一)--机器学习引入
- 第四周作业(一)
- Coursera机器学习-第四周-Neural Network ForwardPropagation
- 机器学习-第四周作业——构建深度神经网络
- 机器学习算法第一篇:决策树学习(一)
- 第四周实验报告(一)
- 第四周实验报告(一)
- 第四周实验报告(一)
- 第四周任务一(三角形类)
- 下载可以观看但没有下载链接的视频或者音乐
- Android 广播系统
- Java源码阅读-StringBuffer和StringBuilder
- MapReduce 实现 倒序索引
- Vuex理解
- 机器学习第四周(一)
- Java中NIO技术学习
- 关于浮动和边距的一个综合案例
- GitHub远程仓库操作
- 一个易错的C语言优先级
- 机器学习降维算法一:PCA(主成分分析算法)
- mybatis判断相等的问题
- ThreadPoolExecutor(线程池的构建)
- 集合框架—— Collections之sort()、max()、binarySearch()方法