关于《Yann LeCun:已解决CIFAR-10,目标 ImageNet》采访的总结
来源:互联网 发布:免费微信一键转发软件 编辑:程序博客网 时间:2024/05/24 06:03
CSDN翻译链接
kaggle英文链接
对这篇采访的总结如下:
- 日本学者 Kunihiko Fukushima 提出的神经认知机(NeoCognitron)对CNN的发展有着启迪性的意义,其提到模式识别机制的自组织神经网络模型不受位置变化的影响。
- 在一个实际的应用中,没人关心训练到底要花多长时间,人们只关心运行需要多久。最终的核心机器是那些执行“美化模版匹配”的浅层网络。
- idea:光谱卷积网络,这是在ICLR 2014上我在纽约大学实验室的同侪发布的一篇论文,课题是广义化的卷积网络可以适用于任意图像(规则的卷积网络可以适用于1D,2D或3D数组,按图像可以被看成规则网格)的确还存在一些实际的问题,但是它开启了一扇大门,让我们看到了通往卷积网络非结构化数据的更多应用方向。《光谱网络与图形方面的深度本地连接网络》
- CIFAR-10现在的错误率最好为4.47%,人类的错误率为6%,当时的LeCun就说,相比CIFAR-10现下人们对于 ImageNet (图像识别目前最大的数据库)更感兴趣。(补一句:我自己用VGG在cifar10数据集上finetune,最好的精度在90%,待更新)
- 对于深层学习网络真的需要那么深么这个问题?LeCun认为,尝试通过浅层网络训练来模拟在ImageNet上训练过的深层卷积网络,你会发现,理论上深层学习网络可以与浅层的相接近,但是在复杂的任务上,浅层网络相距甚远。(我也人为,对于简单的任务来说,网络的深度没必要那么深,但是,对于复杂的任务来说,深度是必须要的,实际应用中,对于简单的任务,可以通过模型蒸馏等一些方法来使得浅层的网络和深层网络有同样的精度)
- 深层神经网络损失函数的收敛性证明(或保证),就有一点复杂了。多层网的损失函数不是凸值,因此简易证明该函数为凸不可行。但是我们都知道实际上卷积网络几乎总是会收敛到同一水平,无论起点是什么(如果初始化完成正确)。有理论证明,有许许多多等效局部最小值,还有一个数字很小的“坏”局部最小值。因此收敛性并不会造成问题。
阅读全文
0 0
- 关于《Yann LeCun:已解决CIFAR-10,目标 ImageNet》采访的总结
- 卷积网络训练太慢?Yann LeCun:已解决CIFAR-10,目标 ImageNet
- 卷积神经网络和CIFAR-10:Yann LeCun专访 Convolutional Nets and CIFAR-10: An Interview with Yann LeCun
- 2016.4.15 Yann Lecun 的 LeNet-5
- 关于Yann LeCun, Yoshua Bengio & Geoffrey Hinton 的Deep Learning 学习摘要
- Yann LeCun,牛人也!
- Facebook人工智能负责人Yann LeCun谈深度学习的局限性
- Facebook的人工智能要靠这个人:Yann LeCun
- 深度学习,Yann LeCun给大学生的十四条建议
- Yann Lecun 深度学习建议
- Facebook Yann LeCun一小时演讲: AI 研究的下一站是无监督学习(附完整视频)
- Yann LeCun连发三弹:人人都懂的深度学习基本原理(附视频)
- CNN 之父 Yann LeCun:预测学习才是 AI 的未来
- 学界 | Yann LeCun最新研究成果:可以帮助GAN使用离散数据的ARAE
- Yann LeCun:深度学习与人工智能的未来(附PPT与译文)
- Yann LeCun vs Gary Marcus:AI 学习的未来更多取决于先天还是后天?
- 资源 | Yann LeCun最新演讲:大脑是如何高效学习的?(附PPT+视频)
- Yann LeCun说是时候放弃概率论了,因果关系才是理解世界的基石
- RUP与设计模式
- JSP的指令元素的概述;Page指令包含的属性Taglib指令JSP的指令-include和taglib指令
- 领域驱动视频(四)
- Hadoop性能调优
- dubbo框架搭建
- 关于《Yann LeCun:已解决CIFAR-10,目标 ImageNet》采访的总结
- Linux shell echo与printf
- linux 下一些命令
- Fabric 远端 批量部署
- springmvc@ModelAttribute注解
- Android:ListView之ViewHolder
- 无人机驾驶员培训学习记录(十五)
- JAVA 并发编程
- 架构师之路:JAVA高并发高性能高可用高扩展架构性能优化系列课程