CVPR 2020 Oral论文:向后兼容的表示学习 (Towards Backward Compatible Representation Learning)

--播放 · --弹幕2020-06-18 14:44:09
投币 收藏
稿件投诉
未经作者授权,禁止转载
(视频为英文语音) 在本文中,我们介绍了一个新的表示学习的问题:向后兼容的表示学习。问题的来源是当我们使用基于深度神经网络的表示模型进行视觉搜索时,每次有新模型被部署,都会导致所有已经被索引的图片需要重新被新模型处理。向后兼容的表示学习致力于消除这个“回填”过程。在本文中我们提出了一种深度学习训练方法(BCT)可以使得训练后的新模型直接与旧模型兼容,即产生的特征可以直接用于在旧模型索引的数据库中进行搜索。这样其部署时就可以不再需要回填过程。
评论
相关推荐
学习分享CVPR 2019
学习分享CVPR 2019
1026 播放 · 1 弹幕