
一个团队带来了视觉信息检索领域的重大突破!由东北大学孔帆恒、冯世、杨小翠、王大领与快手科技的张静源、刘亚辉、张宏志、田宇、Victoria W.、张富正和周国瑞共同完成的这项研究,发表于2025年5月的arXiv预印本(arXiv:2505.19650v2),为我们带来了名为UNITE的全新多模态信息检索框架。
让我们先来理解一下这项研究解决的是什么问题。想象你在社交媒体上看到一段有趣的视频,想找类似内容,或者你看到一张图片,想找与之相关的文字描述。这类需求被称为"多模态信息检索"(Multimodal Information Retrieval,简称MIR)。然而,当前的系统面临两大挑战:一是不同类型数据(如文字、图像、视频)之间存在天然的"模态差距";二是不同模态之间的信息对齐十分复杂。虽然以前的研究已经发现这些问题,但还没有一个系统性的解决方案。
UNITE团队首次全面分析了模态特定数据属性如何影响下游任务表现,并提出了"模态感知掩码对比学习"(Modal-Aware Masked Contrastive Learning,简称MAMCL)技术,有效缓解了不同模态实例之间的竞争关系。简单来说,就像让不同语言的人在同一个会议室交流时,使用翻译耳机确保每个人都能正确理解彼此,而不会因语言差异产生误解。
研究结果令人振奋!UNITE在多个多模态检索基准测试中取得了最先进的成绩,超越现有方法达到显著优势。即使与参数规模更大的模型相比,UNITE也表现出色。例如,UNITE的7B参数版本在MMEB基准测试中达到了70.3%的准确率,超过了拥有26B参数的IDMR模型(69.2%)。在WebVid-CoVR测试中,UNITE 7B更是达到了72.5%的检索准确率,远高于现有最佳方法ECDE的60.1%。
这项研究不仅提升了多模态信息检索的性能,还为未来多模态系统研究提供了基础蓝图。无论你是研究人员还是对这一领域感兴趣的普通读者,都能从这项工作中获得对多模态系统更深入的理解。有兴趣深入了解的读者可以通过论文中提供的项目网站:https://friedrichor.github.io/projects/UNITE 获取更多信息。
二、多模态信息检索的挑战与UNITE的应对之道
多模态信息检索就像是一个能同时理解多种语言的翻译官,需要在文字、图像和视频等不同"语言"之间自如切换。然而,这些不同"语言"之间存在着巨大的差异,就像中文和英文有着不同的语法结构一样,文字和图像的表达方式也截然不同。
研究团队发现,当前的方法主要关注于双模态场景(如文本-图像或文本-视频检索),但随着社交媒体的发展,用户需求变得更加复杂,例如希望基于一段视频和一段文字描述来查找类似视频。这种复合模态的检索任务被称为"融合模态检索",需要处理交错的多模态查询和候选项,对系统的要求更高。
现有的大型多模态模型(LMMs)虽然在多种视觉-语言任务上表现出色,但在检索任务方面仍有局限。例如,E5-V通过使用纯文本数据微调LLaVA-NeXT,展示了LMMs在多模态检索中的潜力;GME通过微调Qwen2-VL在多种图像-文本检索任务中取得领先成绩;InternVideo2则因其上亿视频-文本对的训练而在文本-视频检索中表现突出。然而,这些模型受限于其专注的特定模态,无法充分发挥LLMs在生成统一多模态嵌入方面的潜力。
尽管有研究探索了LMMs在MIR中的训练策略,包括模型架构、训练方法和数据集考量,但仍有关键问题未解决:最佳的数据组成和比例是什么?不同模态数据配置如何影响各种检索任务?研究团队通过实证调查发现,不适当的多模态数据组合或训练序列容易破坏多样化数据模态的和谐整合,导致模型错误理解不同类型信息之间的关系。
UNITE的创新之处在于,研究团队通过精心分析不同数据组成对检索结果的影响,努力在文本、图像和视频三种模态之间取得平衡。特别是,他们发现在检索适应阶段引入少量精细的视频-文本对可显著提升LMMs的精细检索性能。同时,他们提出的MAMCL方法能有效平衡不同模态实例间的竞争关系,提高表示学习的质量。
三、UNITE的技术架构与工作原理
UNITE的核心是一个能同时处理文本、图像、视频及其组合的统一框架。就像一个精通多国语言的翻译,它能将不同类型的信息转换为一种"通用语言",使它们能够在同一空间中进行比较和匹配。
在技术层面,UNITE利用大型多模态模型(LMM)作为骨干,这些模型由三个关键组件组成:大型语言模型、视觉编码器和视觉投影器。这种架构设计使UNITE能够流畅地处理文本、图像、视频及其融合形式。当输入进入系统时,UNITE使用提示模板引导处理过程,例如:
``` \n\nSummarize above in one word: ```
其中``和``是视觉内容(图像、视频)和文本句子的占位符,``指定输入模态类型。比如,对于视频-文本输入,会使用以下提示:
```
好文章,需要你的鼓励
加州大学洛杉矶分校等机构联合推出的Unify-Agent突破了传统AI图像生成的知识局限,通过整合"思考-搜索-整理-绘制"四步工作流程,让AI画师具备主动查找资料的能力。该系统在FactIP基准测试中相关性指标提升61%,特别擅长处理需要准确世界知识的长尾内容和文化特色图像生成任务。
中科院团队开发的FlowPIE系统首次将动态文献探索与创意进化相结合,突破传统AI科学创意生成的同质化局限。该系统通过流引导蒙特卡洛树搜索实现文献检索与创意生成的紧密耦合,并采用类生物进化机制持续优化创意质量。实验显示,FlowPIE在新颖性、可行性等维度显著超越现有方法,展现出强大的跨领域泛化能力,为AI辅助科研开辟了新路径。
阿里巴巴DAMO研究院推出Lingshu-Cell虚拟细胞建模系统,采用掩码离散扩散模型技术,能够精确模拟和预测细胞在基因编辑、药物刺激等干预下的反应。该系统在国际虚拟细胞挑战赛中表现出色,为个性化医疗和药物开发开辟了全新路径,标志着数字生物学时代的到来。
上海AI实验室联合多所高校发布GEMS技术,通过智能团队协作机制让60亿参数的小模型在图像生成上超越顶级商业模型。该系统包含循环优化、记忆管理和技能库三大核心,采用多轮迭代和专业技能匹配,在主流测试中提升14分以上,为资源受限环境下的高质量AI应用提供新方案。