一个团队带来了视觉信息检索领域的重大突破!由东北大学孔帆恒、冯世、杨小翠、王大领与快手科技的张静源、刘亚辉、张宏志、田宇、Victoria W.、张富正和周国瑞共同完成的这项研究,发表于2025年5月的arXiv预印本(arXiv:2505.19650v2),为我们带来了名为UNITE的全新多模态信息检索框架。
让我们先来理解一下这项研究解决的是什么问题。想象你在社交媒体上看到一段有趣的视频,想找类似内容,或者你看到一张图片,想找与之相关的文字描述。这类需求被称为"多模态信息检索"(Multimodal Information Retrieval,简称MIR)。然而,当前的系统面临两大挑战:一是不同类型数据(如文字、图像、视频)之间存在天然的"模态差距";二是不同模态之间的信息对齐十分复杂。虽然以前的研究已经发现这些问题,但还没有一个系统性的解决方案。
UNITE团队首次全面分析了模态特定数据属性如何影响下游任务表现,并提出了"模态感知掩码对比学习"(Modal-Aware Masked Contrastive Learning,简称MAMCL)技术,有效缓解了不同模态实例之间的竞争关系。简单来说,就像让不同语言的人在同一个会议室交流时,使用翻译耳机确保每个人都能正确理解彼此,而不会因语言差异产生误解。
研究结果令人振奋!UNITE在多个多模态检索基准测试中取得了最先进的成绩,超越现有方法达到显著优势。即使与参数规模更大的模型相比,UNITE也表现出色。例如,UNITE的7B参数版本在MMEB基准测试中达到了70.3%的准确率,超过了拥有26B参数的IDMR模型(69.2%)。在WebVid-CoVR测试中,UNITE 7B更是达到了72.5%的检索准确率,远高于现有最佳方法ECDE的60.1%。
这项研究不仅提升了多模态信息检索的性能,还为未来多模态系统研究提供了基础蓝图。无论你是研究人员还是对这一领域感兴趣的普通读者,都能从这项工作中获得对多模态系统更深入的理解。有兴趣深入了解的读者可以通过论文中提供的项目网站:https://friedrichor.github.io/projects/UNITE 获取更多信息。
二、多模态信息检索的挑战与UNITE的应对之道
多模态信息检索就像是一个能同时理解多种语言的翻译官,需要在文字、图像和视频等不同"语言"之间自如切换。然而,这些不同"语言"之间存在着巨大的差异,就像中文和英文有着不同的语法结构一样,文字和图像的表达方式也截然不同。
研究团队发现,当前的方法主要关注于双模态场景(如文本-图像或文本-视频检索),但随着社交媒体的发展,用户需求变得更加复杂,例如希望基于一段视频和一段文字描述来查找类似视频。这种复合模态的检索任务被称为"融合模态检索",需要处理交错的多模态查询和候选项,对系统的要求更高。
现有的大型多模态模型(LMMs)虽然在多种视觉-语言任务上表现出色,但在检索任务方面仍有局限。例如,E5-V通过使用纯文本数据微调LLaVA-NeXT,展示了LMMs在多模态检索中的潜力;GME通过微调Qwen2-VL在多种图像-文本检索任务中取得领先成绩;InternVideo2则因其上亿视频-文本对的训练而在文本-视频检索中表现突出。然而,这些模型受限于其专注的特定模态,无法充分发挥LLMs在生成统一多模态嵌入方面的潜力。
尽管有研究探索了LMMs在MIR中的训练策略,包括模型架构、训练方法和数据集考量,但仍有关键问题未解决:最佳的数据组成和比例是什么?不同模态数据配置如何影响各种检索任务?研究团队通过实证调查发现,不适当的多模态数据组合或训练序列容易破坏多样化数据模态的和谐整合,导致模型错误理解不同类型信息之间的关系。
UNITE的创新之处在于,研究团队通过精心分析不同数据组成对检索结果的影响,努力在文本、图像和视频三种模态之间取得平衡。特别是,他们发现在检索适应阶段引入少量精细的视频-文本对可显著提升LMMs的精细检索性能。同时,他们提出的MAMCL方法能有效平衡不同模态实例间的竞争关系,提高表示学习的质量。
三、UNITE的技术架构与工作原理
UNITE的核心是一个能同时处理文本、图像、视频及其组合的统一框架。就像一个精通多国语言的翻译,它能将不同类型的信息转换为一种"通用语言",使它们能够在同一空间中进行比较和匹配。
在技术层面,UNITE利用大型多模态模型(LMM)作为骨干,这些模型由三个关键组件组成:大型语言模型、视觉编码器和视觉投影器。这种架构设计使UNITE能够流畅地处理文本、图像、视频及其融合形式。当输入进入系统时,UNITE使用提示模板引导处理过程,例如:
``` \n\nSummarize above in one word: ```
其中``和``是视觉内容(图像、视频)和文本句子的占位符,``指定输入模态类型。比如,对于视频-文本输入,会使用以下提示:
```
好文章,需要你的鼓励
这项研究探索了如何通过"LLM情境调节"和"持续工作流程提示"技术来提高大型语言模型在验证化学分子式时的准确性。研究者发现,普通提示方法往往不可靠,因为LLM倾向于自动"纠正"错误而非指出它们。然而,通过精心设计的情境调节提示,研究成功引导Gemini 2.5 Pro不仅识别出文本中的错误,还发现了之前人工审阅未察觉的图像中的分子式错误。这一概念验证研究表明,即使不修改模型本身,也能通过适当的提示策略显著提高LLM在科学技术文档细节验证中的表现。
复旦大学研究团队开发的uLLSAM模型成功将多模态大语言模型(MLLMs)与分割一切模型(SAM)结合,解决了显微镜图像分析的跨域泛化难题。通过创新的视觉-语言语义对齐模块(VLSA)和语义边界正则化(SBR)技术,该模型在9个领域内数据集上提升了7.71%的分割准确度,在10个从未见过的数据集上也展现了10.08%的性能提升。这一统一框架能同时处理光学和电子显微镜图像,大大提高了生物医学图像分析的效率和准确性,为科研人员提供了强大的自动化分析工具。
斯坦福大学等机构研究团队利用强化学习训练大语言模型,使其能够优化汇编代码性能。研究构建了8,072个程序的数据集,并通过近端策略优化(PPO)训练模型生成既正确又高效的汇编代码。实验表明,训练后的Qwen2.5-Coder-7B-PPO模型实现了96.0%的测试通过率和1.47倍平均加速比,超越包括Claude-3.7-sonnet在内的所有其他模型。研究发现模型能识别编译器忽略的优化机会,如用单一指令替代整个循环,为性能敏感应用提供了有价值的优化途径。
这项研究提出了一种改进的声乐效果风格迁移方法,通过在推理时间优化过程中引入高斯先验知识,解决了传统ST-ITO方法忽视参数合理性的问题。研究团队基于DiffVox数据集构建了专业效果器参数分布模型,将风格迁移转化为最大后验概率估计问题。实验结果表明,该方法显著优于基准方法,参数均方误差降低了33%,并在主观听感测试中获得最高评分。这一创新为音频处理领域融合数据驱动和专业知识提供了新思路。