迁移学习和finetune的区别
来源:互联网 发布:腾讯 知乎 编辑:程序博客网 时间:2024/06/14 09:07
1:迁移学习是将已经学习到的知识应用到其他领域,比如通用的语音模型迁移到某个人的语音模型上。
比如把已经训练好的模型的某一层的输出拿出来,然后用一个svm、LR等分类,更好的去利用从某一层输出的特征(也叫知识),这也还是迁移学习的思想
2:finetune(微调):例子:在Alexnet的基础上,我们重新加上一个层再去训练网络。
3:所以我个人认为迁移学习直接将现有的或者从现有的模型中提取出来的有用的东西应用的另一个领域,不在进行训练了。
而finetune就是微调,思想是:利用原有模型的参数信息,作为我们要训练的新的模型的初始化参数,这个新的模型可以和原来一样也可以增添几个层(进行适当的调整)。
阅读全文
1 0
- 迁移学习和finetune的区别
- 迁移学习技巧以及如何更好的finetune 模型
- Caffe学习之finetune
- 自我学习,监督学习,半监督学习和迁移学习的区别
- 迁移学习与fine-tuning的区别
- 迁移学习与fine-tuneing的区别
- 行连接和行迁移的区别
- PyTorch参数初始化和Finetune
- PyTorch参数初始化和Finetune
- caffe下的finetune训练
- 迁移学习的挑战和六大突破点
- 【回顾】迁移学习的发展和现状
- caffe使用预训练的模型进行finetune--caffe学习(1)
- 深度学习笔记(六)finetune
- 深度学习笔记(六)finetune
- caffe深度学习(二)finetune
- alexnet tensorflow finetune实现和简介
- 【迁移学习】中科院计算所王晋东:迁移学习的发展和现状
- nginx.conf配置详解
- HDU 6152 Friend-Graph
- 2017年8月23日训练日记
- 第二篇 自制系统内核
- JAVA学习56_用UltraEdit代替“笨重”的IDE,实现轻巧编程!
- 迁移学习和finetune的区别
- 理解js中的原型链,prototype与__proto__的关系
- HDU
- 暑假集训日记--8.23--树状数组
- 正则表达(?i)E是什么意思
- 企业级集群架构体系实战(一)
- Android基础篇之Actiyity生命周期
- oracle的常用聚合函数简单用法
- spark 压缩解压文件(基于scala)