caffe系列之激活函数
来源:互联网 发布:单片机软件原理 编辑:程序博客网 时间:2024/05/15 03:10
1、Sigmoid
layer{ name: "encod1act" bottom: "encode1" top: "encode1neuron" type: "Sigmoid"}
2、ReLU/Retified-Linear and Leaky-ReLU
可选参数:negative_slope:默认为0。对标准的ReLU函数进行变化,如果设置了这个值,那么数据为负数时,就不再设置为0,而是原始数据乘以negative_slope。
layer{ name: "relu1" type: "ReLU" bottom: "pool1" top: "pool1"}
RELU层支持in-place计算,这意味着bottom输出和输入相同以避免内存的消耗。
3、TanH/Hyperbolic Tangent
layer{ name: "lauer" bottom: "input" top: "out" type: "TanH"}
4、Absolute Value
layer{ name: "layer" bottom: "in" out: "out" type: "AbsVal"}
5、Power
对每个输入数据进行幂运算
可选参数:
power: 默认为1
scale: 默认为1
shift: 默认为0
layer{ name: "layer" bottom: "in" top: "out" type: "Power" power_param{ power: 2 scale: 1 dhift: 0 }}
6、BNLL
f(x) = log(1+exp(x))
layer{ name: "layer" bottom: "in" top: "out" type: "BNLL"}
阅读全文
0 0
- caffe系列之激活函数
- caffe之(三)激活函数层
- 深度学习caffe:激活函数
- caffe 学习系列激活层及其参数
- 深度学习系列之各激活函数对比
- caffe中的激活函数代码解析
- Caffe学习(七)激活函数
- 激活函数与caffe及参数
- caffe学习笔记22-激活函数特点
- CAFFE源码学习笔记之激活层
- 激活函数之tanh
- 神经网络之激活函数
- Caffe学习系列(4):激活层(Activiation Layers)及参数
- Caffe傻瓜系列(3):激活层(Activiation Layers)及参数
- Caffe学习系列(4):激活层(Activiation Layers)及参数
- Caffe学习系列(4):激活层(Activiation Layers)及参数
- Caffe学习系列(四):激活层(Activiation Layers)及参数
- Caffe系列(3):激活层(Activiation Layers)及参数
- Java 并发之 ScheduledThreadPoolExecutor 原理分析
- poj 1063 找规律题目
- Hive中union使用详情
- 事物处理 applicationContext.xml
- AndroidStudio修改项目名称
- caffe系列之激活函数
- S08IO库
- 记一次线上事故,redis 的keys问题,cpu引起的性能问题
- 《APP研发录》笔记
- Android四大组件之Service
- 机器学习之朴素贝叶斯分类器
- strcpy和memcpy的区别
- 自动化机器学习将成为下一个AI研究主流?听听数据科学家怎么说
- 浮点数运算出现偏差以及简单解决方法