Deep Cross-media Knowledge Transfer(DCKT)论文阅读笔记
CVPR 2018
当前的跨模态检索方法通常需要依赖有标签的数据来训练模型,然而,收集跨模态数据并且标注是很耗费人力的事情,所以怎样将现有数据中有价值的信息迁移到新的数据中是应用中很重要的问题。
为实现这个目标,本文提出了深度跨媒体知识迁移(DCKT)方法,该方法能够将大规模跨模态数据集的信息迁移到小规模数据集中,用来提升在小规模跨模态数据集上模型的训练效果。
我们考虑下面的问题:在大规模跨模态数据集和另一个小规模数据集有着不同的标签空间时,应该怎样进行从大规模数据集(源域)到小规模数据集(目标域)的知识的迁移? DCKT方法的主要贡献如下:
双级别迁移架构,同时使得模态级别和相关度级别的域差异最小,将模态内语义和模态间相关知识进行迁移,来丰富训练信息,提高目标域的检索准确度;
渐进迁移机制,基于自适应反馈的跨媒体域一致性度量方法,根据目标域迁移难度的由易到难,迭代的选择训练样本。这种机制可以逐渐减少巨大的跨媒体域差异,增强模型的鲁棒性。