强监督学习是指通常使用边界框和局部标注信息,来获取目标的位置、大小,从而提高分类精度。 即给出了图片标注中物体的某些显著特征,即discriminative。
而弱监督学习是指仅利用图像的类别标注信息,不使用额外的标注,
目前弱监督学习的主要思路是定位出判别性的部位,取得判别性的特征做辅助来分类。
其实这很符合人类辨别细粒度物体的流程,先看全局信息知道大类,然后根据经验把注意力放在一些关键部位来做出判断,而这些部位就是弱监督网络所要找
的discriminative parts。
目前的强监督学习方法有part-based r-cnn基于r-cnn算法完成了局部区域的检测,利用约束条件对r-cnn提取到的区域信息进行修正之后提取卷积特征,并将不同区域的特征进
行拼接,构成最好的特征表示,然后通过SVM分类器进行分类训练。 Posed-normalized Cnn对每一张图片进行位置检测,然后将检测框内的图像进行裁剪,从而提取不同
层次、不同位置的图像,再对提取到的图像块进行姿态对其送入CNN,将得到的特征拼接后利用SVM分类器进行分类。 Multi-proposal Net通过Edge Box Crop方法获取图像
块,并引入关键点及视觉特征的输出层,进一步强化了局部特征与全部信息直接的位置关联。
弱监督方法,有图像过滤,仅借助于图像的类别信息过滤图片中与物体无关的模块,其中最有代表性的是Two-level算法。two attention level利用物体级和局部级的信
息,通过Search Selective算法过滤掉无关背景,然后将过滤掉的背景送入CNN网络进行训练,得到物体级的分类结果,随后通过聚类算法将不同位置的特征继续区分,
并将不同区域的特征拼接后送入svm分类器进行训练。
人在认知物体和事物时,往往需要完成对其特征的理解及类别名称的记忆,B-CNN根据大脑工作时同认知类别和关注显著特征的方法,构建了两个线性网络,协调完
成局部特征提取和分类的任务。
到这里,前期的基础知识差不多就完成了,下面准备进入正题。
五、五、200类鸟类细粒度图像分类实战类鸟类细粒度图像分类实战
1.CUB200-2011数据集数据集
首先还是一如既往先介绍我们的驱动力—-数据。
不对,放错图了,应该是下面这张。
本次细粒度分类所采取的数据集CUB200-2011,该数据集是由加州理工学院在2010年提出的细粒度数据集,也是目前细粒度分类识别研究的基准图像数据集,该数
据集共有117888张鸟类图像,包含了200类鸟类子类,其中训练数据集有5994张图像,测试集有5794张图像,每张图像均提供了图像类标注信息,图像中鸟的
bounding box,鸟的关键part信息,以及鸟的属性信息。
评判标准就是以准确率了。
好了,准备上模型了!
2.VGG16模型模型
先用VGG16来投石问路
评论12
最新资源