微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 蒙特利尔大学团队突破语言模型记忆瓶颈:让AI学会"忠实阅读"而非胡编乱造

蒙特利尔大学团队突破语言模型记忆瓶颈:让AI学会"忠实阅读"而非胡编乱造

2025-09-30 10:50
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-09-30 10:50 科技行者

这项突破性研究由蒙特利尔大学的王苏雨辰、麦吉尔大学的王新宇、耶鲁大学的唐向茹等多位研究者共同完成,并于2025年9月发表在arXiv预印本平台(论文编号:arXiv:2509.13683v1)。研究团队来自加拿大魁北克AI研究院(Mila)、MetaGPT等知名机构,有兴趣深入了解的读者可以通过https://foundationagents.github.io/CARE访问完整论文和相关资源。

当下的大型语言模型就像一个博学但有时不太可靠的朋友——它们知识渊博,能够回答各种问题,但有时会在明明给了正确资料的情况下,仍然固执地按照自己的"想法"来回答问题。这种现象被研究者称为"上下文幻觉",简单来说就是AI模型不愿意好好读你给它的材料,而是喜欢凭借自己训练时学到的知识来"发挥创造"。

这个问题在实际应用中造成了严重困扰。比如,当你给AI提供一份详细的公司财务报告,询问特定数据时,它可能会忽略报告中的真实数字,而是根据它对类似公司的"印象"来编造答案。这种不忠实于提供信息的行为,严重影响了用户对AI系统的信任度。

现有的解决方案主要分为两类。第一类是传统的检索增强生成方法,它们会额外训练一个专门的检索模块来寻找相关信息,但这种方法需要大量标注好的训练数据,成本极高,就像为了找东西专门雇佣一个助手,既费钱又复杂。第二类是让模型去互联网上搜索相关信息,但这样做往往会忽略用户已经提供的宝贵上下文信息,就像有人给你一本说明书,你却跑去问别人怎么操作一样。

研究团队提出了一个全新的解决方案——CARE框架(Context-Aware Retrieval-Enhanced reasoning),这个方法教会AI模型在思考过程中主动从提供的文本中"引用"相关信息,就像一个认真的学生在写论文时会仔细引用参考资料一样。这种方法的巧妙之处在于,它不需要额外的复杂模块,而是直接训练模型学会在推理过程中显式地提取和使用上下文中的关键信息。

CARE框架的工作原理可以用学习写议论文来类比。当学生刚开始写议论文时,他们往往会凭借模糊的印象来论证观点,但经过训练后,他们学会了在论证过程中明确引用材料中的具体内容。CARE正是这样教会AI模型的:在回答问题的思考过程中,明确标出从上下文中提取的关键信息,并基于这些信息进行推理。

一、创新训练方法:从监督学习到强化优化的双阶段策略

CARE框架采用了一个精心设计的两阶段训练过程,就像培养一个优秀的研究助手一样,需要先教会基本技能,再通过实践不断完善。

第一阶段是监督微调,研究团队首先需要创建一个特殊的训练数据集。他们基于HotpotQA数据集,这是一个包含支撑事实标注的问答数据集,通过三个步骤来生成训练样本。首先,他们让一个推理模型基于问题和上下文生成初步的思考过程,就像让学生先尝试回答问题。接着,他们将已知的支撑事实融入到这个思考过程中,确保推理过程能够准确引用相关信息。最后,他们在引用的信息周围添加特殊的标记符号,就像在文章中用括号标出引用一样。

这个过程产生了7739个高质量的训练样本,每个样本都包含完整的推理链条和明确的信息引用。通过这种方式,模型学会了在思考过程中使用特殊的标记来引用上下文信息,形成了"检索-推理"的基本模式。

第二阶段是强化学习优化,使用了一种叫做群体相对策略优化(GRPO)的技术。这个阶段的目标是让模型在没有标准答案的情况下,仍然能够准确地从上下文中提取相关信息。研究团队设计了三种奖励机制来指导模型的学习:准确性奖励鼓励模型生成正确答案,格式奖励确保模型按照要求的格式进行推理,检索奖励则专门鼓励模型正确地从上下文中提取信息。

特别值得一提的是,研究团队还引入了课程学习策略。就像教学中由浅入深的原理一样,他们让模型从简单的短文本问答开始练习,逐渐过渡到复杂的长文本多跳推理任务。这种渐进式的训练方法帮助模型在保持简单任务能力的同时,获得处理复杂场景的技能。

二、核心技术突破:原生检索增强推理机制

CARE框架的核心创新在于实现了"原生检索增强推理",这是一种让模型在思考过程中自然地整合上下文信息的机制。传统方法通常将信息检索和推理分离,就像先查字典再思考问题,而CARE则让这两个过程同时进行,更像人类在阅读理解时的自然思维过程。

在具体实现上,CARE使用特殊的标记符号来界定检索到的信息。当模型在推理过程中需要引用上下文信息时,它会用\<retrieval\>\</retrieval\>标签将相关文本包围起来。这种设计让模型的推理过程变得透明可追溯,用户可以清楚地看到模型引用了哪些信息,以及基于这些信息得出了什么结论。

以论文中的一个例子来说明这种机制的工作原理。当被问及"约翰妈妈买的电影票价格是否合理"时,没有使用CARE的模型可能会基于对一般电影票价的印象来回答,而CARE训练的模型会在思考过程中明确引用:"上下文中提到票价是15美元"、"一般场次的票价范围是10到12美元"、"特殊场次的票价范围是13到16美元",然后基于这些具体信息得出"价格合理"的结论。

这种方法的优势在于它完全基于模型的内在语言理解能力,不需要外部的检索系统或向量数据库。模型学会了在推理过程中"回头看"提供的上下文,就像一个仔细的阅读者会在思考时重新审视文本中的关键信息一样。

三、奖励机制设计:三重奖励确保全面优化

在强化学习阶段,CARE框架设计了一个综合的奖励机制,包含三个互补的组成部分,就像评判一篇好文章需要考虑内容准确、格式规范和引用恰当三个方面。

准确性奖励是最直观的评价标准,它通过计算模型生成答案与标准答案之间的F1分数来衡量回答的正确性。这确保了模型在学会正确引用信息的同时,不会牺牲回答问题的基本能力。

格式奖励确保模型按照预期的结构进行推理。由于CARE要求模型在思考标签内进行推理,并在推理过程中使用检索标签,格式奖励会鼓励模型生成符合这种结构要求的输出。这就像训练学生写作时,既要关注内容质量,也要保证格式规范。

检索奖励是CARE框架独有的创新设计,专门用于鼓励模型正确地从上下文中提取信息。当模型在检索标签内的内容确实来自于原始上下文时,它会获得正向奖励。虽然这个约束相对宽松——只要求引用的内容存在于上下文中,而不要求是最相关或最重要的信息,但它有效地引导模型养成依赖上下文而非内部知识的习惯。

这三种奖励通过加权组合的方式共同作用,研究团队将权重设置为准确性奖励0.7、格式奖励0.1、检索奖励0.2,这样的配比既保证了回答的准确性,又充分强调了上下文忠实度的重要性。

四、课程学习策略:从简单到复杂的渐进训练

CARE框架引入的课程学习策略解决了一个重要的实际问题:如何让模型在学习新技能的同时,不忘记已有的能力。这种策略的灵感来自于人类学习的自然规律——我们总是从简单的概念开始,逐渐掌握复杂的技能。

在具体实施中,研究团队选择了两个不同难度的数据集。DROP数据集作为"简单"任务,包含相对较短的上下文和较简单的推理要求。MS MARCO数据集作为"困难"任务,包含更长的上下文和更复杂的多跳推理要求。

训练过程采用动态混合策略,开始时主要使用简单数据集,随着训练的进行,逐渐增加困难数据集的比例。具体来说,在训练步骤t时,选择简单数据集的概率为α_t = max(0, 1-η·t/T),其中η是控制转换速度的参数,T是总训练步数。这意味着训练初期模型主要学习基础的检索-推理模式,后期逐渐适应更复杂的场景。

这种渐进式的学习策略有效地防止了"灾难性遗忘"——即模型在学习新任务时忘记旧任务的现象。同时,它也确保了模型能够在各种不同复杂度的任务上都保持良好的性能,而不是只擅长某一类特定的问题。

五、实验验证:全面超越现有方法的卓越表现

为了验证CARE框架的有效性,研究团队在多个不同类型的数据集上进行了全面的对比实验。实验覆盖了三个主流的语言模型:LLaMA-3.1 8B、Qwen2.5 7B和Qwen2.5 14B,以及四个具有代表性的问答数据集。

在真实世界的长文本问答任务上,CARE框架展现出了显著的优势。以LLaMA-3.1 8B模型为例,在MultiFieldQA-En数据集上,CARE将性能从45.57%提升到49.94%,在HotpotQA上从54.64%提升到63.09%,在2WikiMQA上的提升更是惊人,从45.87%飙升到75.29%,在MuSiQue上从32.08%提升到51.00%。平均而言,CARE实现了15.29%的显著性能提升。

这种提升在多跳推理任务上尤为明显。多跳推理要求模型从多个相关信息片段中整合答案,就像解决一个需要多个线索的侦探案件。传统方法在这种任务上往往表现不佳,因为它们难以有效地整合分散在长文本中的相关信息。而CARE通过显式的信息引用机制,能够系统地收集和整合所需的信息片段。

在对抗性测试中,CARE的优势更加明显。研究团队使用CofCA数据集进行测试,这个数据集包含与模型预训练知识相矛盾的信息,专门用来测试模型是否会固执地坚持自己的"成见"。结果显示,CARE在这种场景下的表现远优于其他方法,证明了它确实学会了优先信任提供的上下文信息,而不是盲目依赖内部知识。

有趣的是,一些基于外部搜索的方法在对抗性测试中的表现甚至不如原始模型,这说明外部检索有时会引入与上下文相矛盾的信息,反而加剧了问题。而CARE专注于上下文内的信息提取,有效避免了这种困扰。

六、消融实验:解析每个组件的独特贡献

为了深入理解CARE框架中每个组件的作用,研究团队进行了详细的消融实验。这些实验就像拆解一台精密机器来了解每个零件的功能一样,帮助我们理解哪些设计决策真正重要。

首先,研究团队验证了两阶段训练策略的必要性。仅使用监督微调的模型虽然学会了基本的格式,但在复杂推理任务上的表现有限。加入强化学习后,模型的性能得到了显著提升,这证明了强化学习在优化检索-推理行为方面的重要作用。

检索奖励的作用也得到了明确验证。没有检索奖励的模型虽然能够进行推理,但往往不会有效利用上下文信息,就像一个学生虽然知道要引用资料,但经常忘记这么做。加入检索奖励后,模型显著提高了对上下文信息的利用率。

课程学习策略的效果同样显著。使用课程学习的模型在各种不同类型的任务上都表现出更好的平衡性,特别是在长文本问答和对抗性场景中。这说明渐进式的训练策略确实帮助模型获得了更强的泛化能力。

七、信息检索准确性评估:精确引用能力的量化分析

除了问答准确性,研究团队还专门评估了CARE在信息检索方面的能力。他们使用BLEU和ROUGE-L指标来衡量模型检索到的信息与真实支撑事实的匹配程度,就像评判一个学生的引用是否准确和完整。

结果显示,CARE在所有测试模型上都获得了最高的检索准确性分数。更重要的是,这种优势随着模型规模的增大而更加明显,说明CARE的设计能够有效利用更大模型的能力。

这种精确的信息检索能力不仅提高了答案的准确性,还大大增强了模型输出的可解释性。用户可以清楚地看到模型的推理过程,验证每个结论的依据,这对于需要高度可信性的应用场景极其重要。

八、计算效率分析:在性能提升和成本控制之间的平衡

虽然CARE生成的输出通常比原始模型更长(因为包含了详细的推理过程),但研究团队的分析表明,这种额外的计算成本是合理的。CARE避免了外部API调用和数据库检索的开销,这些操作在传统RAG系统中往往是性能瓶颈。

以一个具体例子来说明:在HotpotQA数据集上,原始LLaMA模型平均每个查询输出8.5个token,而CARE输出656个token。虽然看起来增长很大,但传统的外部检索方法(如R1-Searcher)需要278个模型输出token加上2058个检索开销token,总计2336个token的等效成本。相比之下,CARE的656个token实际上更加高效。

更重要的是,CARE的所有计算都在本地完成,避免了网络延迟和外部服务的依赖性,这在实际部署中具有重要优势。

研究团队通过这项工作展示了一种全新的思路:与其依赖外部工具来增强模型能力,不如直接教会模型更好地利用已有信息。CARE框架证明了这种"内在能力提升"的方法不仅可行,而且在多个维度上都优于传统的外部增强方法。

这项研究的意义不仅在于技术层面的突破,更在于它为AI系统的可信性和可解释性提供了新的解决方案。在AI越来越深入参与人类决策的时代,确保AI系统能够忠实地基于提供的信息进行推理,而不是凭借可能过时或有偏见的训练数据来"发挥",这种能力变得极其珍贵。

CARE框架目前仍有一些局限性需要在未来工作中解决。它主要针对需要从给定上下文中提取信息的任务,对于需要外部知识的问题仍然需要结合其他方法。同时,虽然CARE显著提高了上下文忠实度,但在面对模糊或矛盾信息时,仍然可能产生不完美的结果。

尽管如此,这项研究为大型语言模型的发展指明了一个重要方向:通过改进模型的内在推理机制,而不是简单地堆叠外部工具,来实现真正的智能提升。这种思路可能会影响未来AI系统的设计理念,推动我们构建更加可靠、透明和值得信赖的人工智能。

Q&A

Q1:CARE框架是什么?它解决了什么问题?

A:CARE是一个原生检索增强推理框架,解决了大型语言模型不忠实于提供上下文的问题。简单说就是教会AI在回答问题时认真"引用"你给它的材料,而不是凭自己的"印象"胡编乱造,就像训练学生写论文时要求他们必须引用参考资料一样。

Q2:CARE框架与传统RAG方法有什么不同?

A:传统RAG方法需要额外的检索模块和向量数据库,就像雇佣专门助手帮忙找资料。而CARE直接训练模型在思考过程中主动从给定文本中提取信息,更像教会学生自己学会查阅手头的资料。CARE避免了外部系统的复杂性和延迟,同时成本更低。

Q3:使用CARE训练的模型在实际应用中表现如何?

A:实验结果显示CARE在多个问答任务上都显著超越了原始模型和其他方法。比如在复杂的多跳推理任务中提升了近30%的准确率,在对抗性测试中表现更是远超传统方法。最重要的是,它让模型的推理过程变得透明可追溯,用户能清楚看到AI引用了哪些信息。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-