CS231n-01-Image Classification

来源:互联网 发布:反编译软件为dede 编辑:程序博客网 时间:2024/06/05 03:44

Image Classification

  • Intro to Image Classification, data-driven approach, pipeline

  • Nearest Neighbor Classifier

  • k-Nearest Neighbor

  • Validation sets, Cross-validation, hyperparameter tuning Pros/Cons of Nearest Neighbor

  • Summary

  • Further Reading

这一部分的内容相对简单,并有了相关了解和接触,简单挑一些比较有意义的部分记录一下

图像分类

输入一个元素为像素值的数组,然后它分配一个分类标 签:
输入:包含N个图像的集合(即训练集),每个图像的标签是K种分类标签中的一种。
学习:使用训练集训练分类器,从而学习每个类是什么样子。
评价:预测测试集中图像的分类标签,来评价分类器的质量。

Nearest Neighbor分类器

NN算法将会拿着测试图片和训练集中每一张图片去比较,然后将它认为最相似的那个训练集图片的标签赋给这张测试图片.
KNN较NN,选取K近邻,故KNN的泛化能力要好于NN。

超参数及其调优

**超参数(hyperparameter)**:像距离度量方法,k值等都属于超参数。      

超参数调优可以通过尝试不同的值,但决不能使用测试集来进行调优,不到最后一步,绝不使用测试集。测试数据集只使用一次,即在训练完成后评价最终的模型时使用。

超参数的调优方法 :
不基于测试集调优,而是在训练集中取出一部分数据-验证集(Validation set)用来调优。根据验证集分析哪个超参数的效果最好,然后用相应的超参数来跑真正的测试集,即把训练集分成训练集和验证集。有时候,训练集数量较小(因此验证集的数量更小),会使用交叉验证的方训练。

其中k-折交叉验证(k-fold crossValidation)比较常用,将数据集A随机分为k个包,每次将其中一个包作为验证集(testing set),剩下k-1个包作为训练集(training set)进行训练。

0 0
原创粉丝点击