matlab的Deep Learning的toolbox 中的SAE算法
来源:互联网 发布:ubuntu 设置工作路径 编辑:程序博客网 时间:2024/05/19 23:13
http://blog.csdn.net/dark_scope/article/details/9942775
==========================================================================================
最近一直在看Deep Learning,各类博客、论文看得不少
但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox
只是跟着Andrew Ng的UFLDL tutorial 写了些已有框架的代码(这部分的代码见github)
后来发现了一个matlab的Deep Learning的toolbox,发现其代码很简单,感觉比较适合用来学习算法
再一个就是matlab的实现可以省略掉很多数据结构的代码,使算法思路非常清晰
所以我想在解读这个toolbox的代码的同时来巩固自己学到的,同时也为下一步的实践打好基础
(本文只是从代码的角度解读算法,具体的算法理论步骤还是需要去看paper的
我会在文中给出一些相关的paper的名字,本文旨在梳理一下算法过程,不会深究算法原理和公式)
==========================================================================================
使用的代码:DeepLearnToolbox ,下载地址:点击打开,感谢该toolbox的作者
==========================================================================================
今天介绍的呢是DL另一个非常重要的模型:SAE
把这个放在最后来说呢,主要是因为在UFLDL tutorial 里已经介绍得比较详细了,二来代码非常简单(在NN的基础之上)
先放一张autoencoder的基本结构:
基本意思就是一个隐藏层的神经网络,输入输出都是x,属于无监督学习
==========================================================================================
基本代码
saesetup.m
- function sae = saesetup(size)
- for u = 2 : numel(size)
- sae.ae{u-1} = nnsetup([size(u-1) size(u) size(u-1)]);
- end
- end
saetrain.m
- function sae = saetrain(sae, x, opts)
- for i = 1 : numel(sae.ae);
- disp(['Training AE ' num2str(i) '/' num2str(numel(sae.ae))]);
- sae.ae{i} = nntrain(sae.ae{i}, x, x, opts);
- t = nnff(sae.ae{i}, x, x);
- x = t.a{2};
- %remove bias term
- x = x(:,2:end);
- end
- end
其实就是每一层一个autoencoder,隐藏层的值作为下一层的输入
各类变形
为了不致于本文内容太少。。。现在单独把它的几个变形提出来说说
sparse autoencoder:
这就是ufldl讲的版本,toolbox中的代码和ufldl中练习的部分基本一致:
在nnff.m中使用:nn.p{i} = 0.99 * nn.p{i} + 0.01 * mean(nn.a{i}, 1);计算
在nnbp.m中使用
pi = repmat(nn.p{i}, size(nn.a{i}, 1), 1);
sparsityError = [zeros(size(nn.a{i},1),1) nn.nonSparsityPenalty * (-nn.sparsityTarget ./ pi + (1 - nn.sparsityTarget) ./ (1 - pi))];
计算sparsityError即可
denoising autoencoder:
denoising其实就是在autoencoder的基础上,给输入的x加入噪声,就相当于dropout用在输入层
toolbox中的也实现非常简单:
在nntrain.m中:
batch_x = batch_x.*(rand(size(batch_x))>nn.inputZeroMaskedFraction)
也就是随即把大小为(nn.inputZeroMaskedFraction)的一部分x赋成0,denoising autoencoder的表现好像比sparse autoencoder要强一些
Contractive Auto-Encoders:
这个变形呢是《Contractive auto-encoders: Explicit invariance during feature extraction》提出的
这篇论文里也总结了一下autoencoder,感觉很不错
Contractive autoencoders的模型是:
其中:
hj是表示hidden layer的函数,用它对x求导
论文里说:这个项是
encourages the mapping to the feature space to be contractive in the neighborhood of the training data
具体的实现呢是:
代码呢参看:论文作者提供的:点击打开链接
主要是
jacobian(self,x):
_jacobi_loss():
_fit_reconstruction():
这几个函数和autoencoder有出入,其实也比较简单,就不细讲了
总结:
- matlab的Deep Learning的toolbox 中的SAE算法
- Matlab deep learning toolbox CNN代码的C++复写
- Matlab 关于使用Deep Learning Toolbox 工具箱出错的问题
- deep learning toolbox学习5之SAE
- Deep Learning 的Matlab工具箱
- 文章标题:Deep Learning的toolbox中CNN的解读
- Matlab deep learning toolbox CNN 卷积神经网络代码改进
- Matlab深度学习笔记——安装deep learning toolbox
- Deep Learning 学习 Toolbox学习记录一 CNN例子的学习理解
- Deep learning:三十六(关于构建深度卷积SAE网络的一点困惑)
- 现有的toolbox配置到matlab中的方法
- deep learning的网址
- deep learning 的综述
- 【Matlab】记录几个常用的Matlab toolbox
- deep learning toolbox学习4之CNN
- 浅析SAE与DBM(Deep Learning)
- deep learning---SAE(stacked autoencoder)
- Deep Learning:Helmholtz机和wake-sleep算法的提出
- python 检测内存溢出
- Html的链接、图片和调用mail
- 【docker】docker run命令详解
- try catch finally 特殊异常 重点
- 懒汉式设计模式
- matlab的Deep Learning的toolbox 中的SAE算法
- deep learning 之学习路线
- 【体系结构问题解决,1】解决4031错误方法
- 黑马程序员——Java集合框架—List
- 算法学习之排序算法:选择排序
- Leetcode: Search for a Range
- 快速排序
- hdu_2795,线段树,单点更新
- 抓住灵感的方法——Leo鉴书73