迁移学习系列文章六:
CVPR 2018论文:Feature Generating Networks for Zero-Shot Learning
迁移学习,是指利用数据、任务、或模型之间的相似性,将在旧领域学习过的模型,应用于 新领域的一种学习过程。
我们都对机器学习有了基本的了解。机器学习是人工智能的一大类重要方法。机器学习解决的是让机器自主地从数据中获取知识,从而应用于新的问题中。迁移学习作为机器学习的一个重要分支,侧重于将已经学习过的知识迁移应用于新的问题中。 迁移学习的核心问题是,找到新问题和原问题之间的相似性,才可以顺利地实现知识的迁移。
迁移学习主要解决一下问题:
1. 大数据与少标注之间的矛盾。
2. 大数据与弱计算之间的矛盾。
3. 普适化模型与个性化需求之间的矛盾。
4. 特定应用的需求。
文章目录
零样本问题可以看作是数据缺失问题。由于目标域数据不可见,导致模型训练时的数据不均衡。一个直观的想法就是生成目标域的数据。生成图像是最简单的想法,但是本文提出直接生成目标域的特征,而不是图像。我认为,这样做确实能够提高精度,因为最后做分类都是在特征上做的,直接生成特征,能够缓解生成图像质量不好的问题。
介绍一篇CVPR 2018的文章:Feature Generating Networks for Zero-Shot Learning。作者使用GAN在特征空间生成数据的思想来解决zero-shot learning的问题。相比GAN生成图像,该方法能取得更好的结果。
为什么生成特征比生成图像好?
问题:
图1 f-CLSWGAN模型
f-CLSWGAN模型相对比较简单,训练如图1所示。
CNN网络:可以是GoogleNe,ResNet,ImageNet上预训练的模型,特定任务微调过的模型,本文采用的是预训练模型。
观察GZSL的实验结果,没有生成数据的时候,所有模型的可见类精度明显高于未见类精度,说明许多样本被错分类为已见类。令人惊奇的是,只使用简单的softmax分类器就能得到SOTA的结果。这表明生成的特征潜力和泛化能力。
f-CLSWGAN有两个创新点:
留言与评论(共有 0 条评论) |