深度学习与深层神经网络等概念
来源:互联网 发布:农村淘宝快递网点查询 编辑:程序博客网 时间:2024/06/05 13:00
线性模型的局限性:线性模型可以解决线性问题,然而,现实中遇到的问题几乎都是“复杂问题”,即非线性问题,线性模型不能解决非线性问题,这就是线性模型的局限。
深层神经网络:深层神经网络是解决“多层非线性变换”最常用的一种方法,其可等同于深度学习。即深度学习和深层神经网络需要解决的问题是非线性问题、复杂问题。
激活函数:神经网络中,用激活函数实现“去线性化”,常用的激活函数有ReLU函数、sigmoid函数以及tanh函数等。
损失函数:神经网络模型的效果以及优化的目标是通过损失函数(loss function)来定义的。
损失函数-交叉熵(cross entropy):交叉熵是常用的评判输出向量和期望向量接近程度的最好方法之一。交叉熵刻画了两个概率分布之间的距离,它是分类问题中使用比较广泛的一类损失函数。
通过q来表示p的交叉熵为:H(p,q)=-(p(x1)*log(q(x1)) + p(x2)*log(q(x2)) + ... + p(xn)*log(q(xn)) )
Softmax回归:由于交叉熵刻画的是两个概率分布之间的距离,而神经网络的输出却不一定是一个概率分布,那么想用交叉熵来作为分类问题神经网络的损失函数,那么必须将神经网络的输出概率化,即将神将网络前向传播的得到的结果变为概率分布,Softmax回归便是常用的方法。
假设原始的神经网络输出为y(1), y(2), ... , y(n),那么经过Softmax回归处理后的输出变为:y(i)=sofetmax(y(i))=exp(y(i))/(exp(y(1))+exp(y(2))+ ... +exp(y(n)))
损失函数-均方误差(MSE):云分类问题不同,回归问题解决的是对具体熟知的预测,如房价走势、销量预测等,这些问题要预测的不是一个实现定义好的类别,而是一个实数。解决回归问题的神经网络一般只有一个输出节点,输出节点的值就是预测值。回归问题最常用的损失函数是均方误差(MSE,mean squared error)。
- 深度学习与深层神经网络等概念
- Coursera吴恩达《神经网络与深度学习》课程笔记(5)-- 深层神经网络
- 神经网络与深度学习
- 深度学习与神经网络
- 神经网络与深度学习
- 神经网络与深度学习
- 吴恩达深度学习笔记(一)week4 深层神经网络
- 吴恩达学习-深层神经网络
- [DeeplearningAI笔记]改善深层神经网络1.4_1.8深度学习实用层面_正则化Regularization与改善过拟合
- DeepLearning.ai学习笔记(一)神经网络和深度学习--Week4深层神经网络
- 吴恩达神经网络和深度学习课程自学笔记(四)之深层神经网络
- 神经网络与深度学习简史
- 神经网络与深度学习1
- 读书笔记《神经网络与深度学习》
- 【神经网络与深度学习】读书笔记
- 神经网络与深度学习Python
- 小白学《神经网络与深度学习》笔记之六-两个重要概念及其他杂项
- [DeeplearningAI笔记]神经网络与深度学习4.深度神经网络
- hexo 首页文章只显示一部分
- Linux:(多摄像头)如何运行指定的摄像头
- jvm 判断对象是否已经死亡
- STL编程:两个多项式相加
- C#6.0 Cookbook.pdf 英文原版 免费下载
- 深度学习与深层神经网络等概念
- poj 2083 Factal
- opencv(八)---物体跟踪
- python numpy.shape 和 numpy.reshape函数
- Shipyard -- Docker可视化管理工具安装与配置
- 学习Lambda表达式
- Programming Language Foundations.pdf 英文原版 免费下载
- VPS+SS搭建
- BZOJ2260 商店购物 BZOJ4349 最小树形图 坠小树形图 朱刘算法