【神经网络张量化】Tensorizing Neural Networks笔记
来源:互联网 发布:java string 去空格 编辑:程序博客网 时间:2024/06/10 17:15
论文地址
代码
这篇文章提出了一种TensorNet,即有一层或多层TT-layer的神经网络。下面分章总结一下。
1-2
大概前两章就是写了传统的神经网络对计算的要求有多高balabala,以及一些张量和张量分解的发展等等。下面的张量神经网络会用到tt分解。tt分解的作者也是这篇文章的作者。
3
第三章开始正片。
神经网络的参数之所以多主要是因为层与层间的权值。于是张量神经网络就是用张量来存储权值的神经网络。再进行张量分解就可以进行张量的压缩,进而节省存储空间,提高计算速度等。。。这篇文章用的是tt分解来压缩张量,当然还有其他的张量分解方法。
下面就只是简单介绍了一下tt分解和向量和矩阵的tt表示,不了解tt分解的童鞋开起来可能一头污水。。。所以查了一点tt分解的资料:
这篇中文文章的前面有一部分介绍了tt分解
原作者关于tt分解的slides
SVD介绍
在这篇paper的代码里在产生tt核的时候其实是用了一种基于svd的近似算法得到tt核,但是没有在这篇文章里写。至于具体数学上的推导细节,,,我也没看懂。
4-5
这部分就是将梯度下降算法用在tt表示的神经网络上。具体在python上应用的时候,训练部分的代码和普通的神经网络貌似无差。
文章的最后就是介绍了一下实验部分。还有很多不懂的地方,尤其是数学部分,如果以后有什么新的体会再补充。
阅读全文
0 0
- 【神经网络张量化】Tensorizing Neural Networks笔记
- Torch 笔记:神经网络(Neural Networks)
- 神经网络(Neural Networks)
- 神经网络 (Neural Networks)
- Neural Networks(神经网络)
- Neural Networks and Deep Learning学习笔记ch1 - 神经网络
- Stanford机器学习笔记-4. 神经网络Neural Networks (part one)
- Stanford机器学习笔记-5.神经网络Neural Networks (part two)
- 机器学习笔记06:神经网络的表示(Neural Networks-Representation)
- 循环神经网络(RNN, Recurrent Neural Networks)学习笔记:基础理论
- 斯坦福机器学习视频笔记 Week4&Week5 神经网络 Neural Networks
- Self-Normalizing Neural Networks(自归一化神经网络)阅读笔记
- Convolutional Neural Networks卷积神经网络
- 卷积神经网络(Convolutional Neural Networks)
- Convolutional Neural Networks 卷积神经网络
- Convolutional Neural Networks卷积神经网络
- Convolutional Neural Networks卷积神经网络
- Convolutional Neural Networks卷积神经网络
- 基于32位和64位Libjpeg库的压缩和解压缩函数的封装
- Android操作SQLite数据库
- SDUT-1196 排序问题
- 百钱买小鸡/*公鸡5文钱1只,母鸡三文钱一只,小鸡一文钱三只。现在用100文钱共买了100只鸡,问这100只鸡中,公鸡,母鸡,小鸡各是多少只?
- h5学习笔记:vue 路由部署服务器子目录问题
- 【神经网络张量化】Tensorizing Neural Networks笔记
- CentOS7虚拟机下设置固定IP
- 下拉刷新上拉加载数据列表实现(Kotlin版)
- Zabbix3.2邮件告警python脚本
- nginx记录
- windows下生成github ssh key详解
- 一个小小的makefile
- Lua utf8中文字符个数和子串截取
- MySQL