用于可见光-红外线人员重新识别的反事实干预特征转移

最近,基于图的模型在人的再识别任务中取得了巨大的成功,它首先计算不同人之间的图拓扑结构(亲缘关系),然后在他们之间传递信息以实现更强的特征。.但我们发现现有的基于图形的方法在可见光-红外人的重新识别任务(VI-ReID)中由于两个问题而存在不好的概括性。 1)训练-测试模式的平衡差距,这是VI-ReID任务的一个特性.两种模式的数据数量在训练阶段是平衡的,但在推理中却极不平衡,导致基于图的VI-ReID方法的泛化率很低。.2)由端到端学习方式引起的图模块的次优拓扑结构.我们分析,训练有素的输入特征削弱了对图形拓扑学的学习,使其在推理过程中没有足够的泛化。.在本文中,我们提出了一种反事实干预特征转移(CIFT)方法来解决这些问题。.具体来说,同质和异质特征转移(H2FT)是通过两种独立的精心设计的图形模块和不平衡情景模拟来减少训练-测试模式的差距。.此外,还提出了反事实关系干预(CRI),利用反事实干预和因果效应工具来强调拓扑结构在整个训练过程中的作用,从而使图的拓扑结构更加可靠。.在标准的VI-ReID基准上进行的广泛实验表明,CIFT在各种设置下都优于最先进的方法。.

《Counterfactual Intervention Feature Transfer for Visible-Infrared Person Re-identification》

论文地址:http://arxiv.org/abs/2208.00967v1

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章