一个团队带来了视觉信息检索领域的重大突破!由东北大学孔帆恒、冯世、杨小翠、王大领与快手科技的张静源、刘亚辉、张宏志、田宇、Victoria W.、张富正和周国瑞共同完成的这项研究,发表于2025年5月的arXiv预印本(arXiv:2505.19650v2),为我们带来了名为UNITE的全新多模态信息检索框架。
让我们先来理解一下这项研究解决的是什么问题。想象你在社交媒体上看到一段有趣的视频,想找类似内容,或者你看到一张图片,想找与之相关的文字描述。这类需求被称为"多模态信息检索"(Multimodal Information Retrieval,简称MIR)。然而,当前的系统面临两大挑战:一是不同类型数据(如文字、图像、视频)之间存在天然的"模态差距";二是不同模态之间的信息对齐十分复杂。虽然以前的研究已经发现这些问题,但还没有一个系统性的解决方案。
UNITE团队首次全面分析了模态特定数据属性如何影响下游任务表现,并提出了"模态感知掩码对比学习"(Modal-Aware Masked Contrastive Learning,简称MAMCL)技术,有效缓解了不同模态实例之间的竞争关系。简单来说,就像让不同语言的人在同一个会议室交流时,使用翻译耳机确保每个人都能正确理解彼此,而不会因语言差异产生误解。
研究结果令人振奋!UNITE在多个多模态检索基准测试中取得了最先进的成绩,超越现有方法达到显著优势。即使与参数规模更大的模型相比,UNITE也表现出色。例如,UNITE的7B参数版本在MMEB基准测试中达到了70.3%的准确率,超过了拥有26B参数的IDMR模型(69.2%)。在WebVid-CoVR测试中,UNITE 7B更是达到了72.5%的检索准确率,远高于现有最佳方法ECDE的60.1%。
这项研究不仅提升了多模态信息检索的性能,还为未来多模态系统研究提供了基础蓝图。无论你是研究人员还是对这一领域感兴趣的普通读者,都能从这项工作中获得对多模态系统更深入的理解。有兴趣深入了解的读者可以通过论文中提供的项目网站:https://friedrichor.github.io/projects/UNITE 获取更多信息。
二、多模态信息检索的挑战与UNITE的应对之道
多模态信息检索就像是一个能同时理解多种语言的翻译官,需要在文字、图像和视频等不同"语言"之间自如切换。然而,这些不同"语言"之间存在着巨大的差异,就像中文和英文有着不同的语法结构一样,文字和图像的表达方式也截然不同。
研究团队发现,当前的方法主要关注于双模态场景(如文本-图像或文本-视频检索),但随着社交媒体的发展,用户需求变得更加复杂,例如希望基于一段视频和一段文字描述来查找类似视频。这种复合模态的检索任务被称为"融合模态检索",需要处理交错的多模态查询和候选项,对系统的要求更高。
现有的大型多模态模型(LMMs)虽然在多种视觉-语言任务上表现出色,但在检索任务方面仍有局限。例如,E5-V通过使用纯文本数据微调LLaVA-NeXT,展示了LMMs在多模态检索中的潜力;GME通过微调Qwen2-VL在多种图像-文本检索任务中取得领先成绩;InternVideo2则因其上亿视频-文本对的训练而在文本-视频检索中表现突出。然而,这些模型受限于其专注的特定模态,无法充分发挥LLMs在生成统一多模态嵌入方面的潜力。
尽管有研究探索了LMMs在MIR中的训练策略,包括模型架构、训练方法和数据集考量,但仍有关键问题未解决:最佳的数据组成和比例是什么?不同模态数据配置如何影响各种检索任务?研究团队通过实证调查发现,不适当的多模态数据组合或训练序列容易破坏多样化数据模态的和谐整合,导致模型错误理解不同类型信息之间的关系。
UNITE的创新之处在于,研究团队通过精心分析不同数据组成对检索结果的影响,努力在文本、图像和视频三种模态之间取得平衡。特别是,他们发现在检索适应阶段引入少量精细的视频-文本对可显著提升LMMs的精细检索性能。同时,他们提出的MAMCL方法能有效平衡不同模态实例间的竞争关系,提高表示学习的质量。
三、UNITE的技术架构与工作原理
UNITE的核心是一个能同时处理文本、图像、视频及其组合的统一框架。就像一个精通多国语言的翻译,它能将不同类型的信息转换为一种"通用语言",使它们能够在同一空间中进行比较和匹配。
在技术层面,UNITE利用大型多模态模型(LMM)作为骨干,这些模型由三个关键组件组成:大型语言模型、视觉编码器和视觉投影器。这种架构设计使UNITE能够流畅地处理文本、图像、视频及其融合形式。当输入进入系统时,UNITE使用提示模板引导处理过程,例如:
``` \n\nSummarize above in one word: ```
其中``和``是视觉内容(图像、视频)和文本句子的占位符,``指定输入模态类型。比如,对于视频-文本输入,会使用以下提示:
```
好文章,需要你的鼓励
清华大学等多家机构研究团队完成了语音分离技术的全面调研,系统梳理了从传统方法到深度学习的技术演进。研究揭示了"鸡尾酒会问题"的核心挑战,分析了各种学习范式和网络架构的优劣,并通过统一实验框架提供了公平的性能基准。调研涵盖了实时处理、轻量化设计、多模态融合等关键技术方向,为学术界和产业界的技术选型提供了重要参考,推动语音分离从实验室走向实际应用。
浙江大学和腾讯微信视觉团队发现AI图片生成训练中"时机胜过强度"的重要规律,开发出TempFlow-GRPO新方法。通过轨迹分支技术精确评估中间步骤,结合噪声感知权重调整优化不同阶段的学习强度,将训练效率提升三倍,在复杂场景理解方面准确率从63%提升至97%,为AI训练方法论带来重要突破。
谷歌DeepMind发布突破性AI规划技术,让机器人学会像人类一样进行"情境学习"规划。该技术通过Transformer架构实现了快速适应新问题的能力,在迷宫导航、机器人控制等测试中表现优异,为自动驾驶、智能制造、医疗等领域应用奠定基础,标志着向通用人工智能迈出重要一步。
新南威尔士大学研究团队开发了ZARA系统,这是首个零样本运动识别框架,能够在未经专门训练的情况下识别全新的人类活动。该系统集成了自动构建的知识库、多传感器检索机制和分层智能体推理,不仅实现了比现有最强基线高2.53倍的识别准确率,还提供清晰的自然语言解释,为可穿戴设备和健康监护等应用领域带来了突破性进展。