迁移学习和finetune的区别

来源:互联网 发布:腾讯 知乎 编辑:程序博客网 时间:2024/06/14 09:07

1:迁移学习是将已经学习到的知识应用到其他领域,比如通用的语音模型迁移到某个人的语音模型上。

      比如把已经训练好的模型的某一层的输出拿出来,然后用一个svm、LR等分类,更好的去利用从某一层输出的特征(也叫知识),这也还是迁移学习的思想

2:finetune(微调):例子:在Alexnet的基础上,我们重新加上一个层再去训练网络。

 

3:所以我个人认为迁移学习直接将现有的或者从现有的模型中提取出来的有用的东西应用的另一个领域,不在进行训练了。

而finetune就是微调,思想是:利用原有模型的参数信息,作为我们要训练的新的模型的初始化参数,这个新的模型可以和原来一样也可以增添几个层(进行适当的调整)。

原创粉丝点击