人工神经网络之激活函数 -softmax函数
来源:互联网 发布:网络设备管理规范 编辑:程序博客网 时间:2024/05/18 22:51
softmax 可以理解为归一化,如目前图片分类有一百种,那经过 softmax 层的输出就是一个一百维的向量。向量中的第一个值就是当前图片属于第一类的概率值,向量中的第二个值就是当前图片属于第二类的概率值...这一百维的向量之和为1.
softmax的输入层和输出层的维度是一样的,如果不一眼,就在输入至 softmax 层之前通过一层全连接层。
激活函数softmax和损失函数会一起使用。
激活函数会根据输入的参数(一个矢量,表示每个分类的可能性),计算每个分类的概率(0, 1)。
损失函数根据softmax的计算结果
。
softmax函数
证明
什么是归一化?
数据归一化,就是将数据映射到[0,1]或[-1,1]区间或更小的区间,比如(0.1,0.9) 。
为什么要归一化处理?
<1>输入数据的单位不一样,有些数据的范围可能特别大,导致的结果是神经网络收敛慢、训练时间长。
<2>数据范围大的输入在模式分类中的作用可能会偏大,而数据范围小的输入作用就可能会偏小。
<3>由于神经网络输出层的激活函数的值域是有限制的,因此需要将网络训练的目标数据映射到激活函数的值域。例如神经网络的输出层若采用S形激活函数,由于S形函数的值域限制在(0,1),也就是说神经网络的输出只能限制在(0,1),所以训练数据的输出就要归一化到[0,1]区间。
<4>S形激活函数在(0,1)区间以外区域很平缓,区分度太小。例如S形函数f(X)在参数a=1时,f(100)与f(5)只相差0.0067。
阅读全文
0 0
- 人工神经网络之激活函数 -softmax函数
- 人工神经网络之激活函数
- 人工神经网络之激活函数 -Sigmoid函数
- 人工神经网络之激活函数 -tanh函数
- 人工神经网络之激活函数 -RELU函数
- 人工神经网络之激活函数总结
- 卷积神经网络之SoftMax函数
- 神经网络之激活函数
- 神经网络中的softmax函数
- 神经网络之激活函数面面观
- 神经网络之激活函数面面观
- BP神经网络(输出层采用Softmax激活函数、交叉熵损失函数)公式推导
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 激活函数之softmax介绍及C++实现
- 神经网络之激活函数(Activation Function)
- POJ2104 K-th Number 【线段树+二分】
- 归并排序原理及Java实现
- 指定浏览器内核
- 反向迭代器reverse_iterator与正向迭代器iterator之间的转换(list反向删除元素的方法)
- RCNN-配置时出现问题
- 人工神经网络之激活函数 -softmax函数
- 全景xml元素认识
- spring MVC自定义校验器
- windows怎么用C++创建文件夹,怎么用c++新建目录
- MAC Android Studio Can't Start Git
- 设计模式之桥接模式
- 我的学习之路_第二十五章_JavaScript
- kali 2017 vmware11复制粘贴功能--open-vm-tools.servic
- wsimport的使用