微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 香港科大发现:AI大模型内部隐藏的"数学密码",无需人类监督就能自己变聪明

香港科大发现:AI大模型内部隐藏的"数学密码",无需人类监督就能自己变聪明

2025-12-08 10:47
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-12-08 10:47 科技行者

这项令人瞩目的研究由香港科技大学的唐一轩和杨毅团队完成,发表于2025年12月的arXiv预印本服务器,论文编号为2512.02807v1。有兴趣深入了解的读者可以通过该编号查询完整论文。

过去,要让AI大语言模型变得更聪明、更贴合人类需求,就像训练一只宠物狗一样——需要大量的人类反馈来告诉它什么是对的,什么是错的。这个过程不仅费时费力,还会遇到各种问题。人类的评判标准往往主观且不一致,而且收集足够的高质量标注数据成本高昂。更关键的是,现有的奖励模型容易被"钻空子",就像考试时学生可能找到作弊方法一样。

香港科技大学的研究团队发现了一个非常有趣的现象:AI模型在生成回答时,其内部的"神经活动"竟然能够反映回答质量的好坏。这就像是观察一个人说话时的面部表情和肢体语言,就能判断他说的话是否可信一样。研究团队通过一个叫做"稳定秩"的数学概念,成功从模型的内部状态中提取出了质量信号,不再需要人类的直接监督。

一、什么是"稳定秩"——AI内部的"数学体检报告"

稳定秩听起来很复杂,但实际上可以用一个简单的比喻来理解。当AI模型生成一段文字时,它的内部会产生大量的数字表示,就像一个人在思考时大脑中会有各种神经元活动一样。稳定秩就是测量这些数字表示的"分布均匀程度"的指标。

设想你有一个装满弹珠的盒子,每个弹珠代表AI在思考某个词汇时的"激活强度"。如果所有弹珠都堆积在盒子的一个角落,这就像AI的思考过程过于单一,缺乏丰富性;如果弹珠均匀分布在整个盒子里,这表示AI的思考过程涉及了多个维度,更加全面和深入。稳定秩就是衡量这种"分布均匀程度"的数学工具。

在数学上,稳定秩的计算公式是把所有激活值的平方和除以最大激活值的平方。当这个比值接近1时,说明只有一个方向占主导地位,就像所有弹珠都挤在一个角落;当比值较大时,说明激活强度比较均匀地分布在多个方向上,就像弹珠均匀分布在整个盒子里。

研究团队通过大量实验发现,高质量的回答往往对应着较高的稳定秩值。这背后的原理可以这样理解:当AI生成连贯、准确且信息丰富的回答时,它需要协调多个不同的知识领域和语言技能,这种复杂的协调过程会在内部表示中体现为多维度的激活模式。相反,当AI生成低质量回答(比如重复、胡言乱语或不连贯的内容)时,其内部表示往往会"塌缩"到少数几个维度,导致稳定秩较低。

二、验证实验——让AI自己"判断作业质量"

为了验证这个想法是否靠谱,研究团队设计了一系列巧妙的实验。他们使用了一个叫做RewardBench的数据集,这个数据集包含了近3000对问答,每一对都有一个好回答和一个差回答,就像是老师批改作业时的标准答案对比。

实验的设计很像让AI当"阅卷老师"。研究团队让多个不同规模的AI模型(包括Qwen2.5、Qwen3、Llama-3.1、Phi-3.5等)对这些问答对进行评判,但不是通过让AI直接说"这个回答好还是差",而是通过计算每个回答的稳定秩,然后看稳定秩高的回答是否真的比稳定秩低的回答质量更好。

结果令人惊喜。在Qwen3-8B模型上,仅仅使用稳定秩就能达到84.04%的准确率,这个成绩甚至超过了一些需要大量训练数据的传统方法。更重要的是,这种方法在小模型上表现尤其出色——在Qwen2.5-1.5B这个相对较小的模型上,稳定秩方法比其他方法高出了10个百分点以上。

这个发现特别有意义,因为传统的基于提示的评估方法在小模型上往往表现不佳。小模型缺乏足够的指令理解能力,很难按照复杂的评分标准进行评判。而稳定秩方法不依赖模型的指令理解能力,而是直接从内部几何结构中提取信号,因此对模型规模的要求更低。

三、实战应用——"最佳答案筛选器"

研究团队还测试了稳定秩在实际应用中的表现。他们设计了一个"Best-of-N"的场景:让AI模型对同一个问题生成多个不同的回答(比如16个),然后使用稳定秩来选择其中质量最高的一个,就像是从多份草稿中挑选最佳版本。

在数学推理和科学问题回答方面,这种方法表现得相当出色。以Llama-3.2-1B模型为例,使用稳定秩筛选后,平均准确率提升了20.5%。这就像是给学生提供了一个"作业质量检查器",能够自动从多次尝试中挑选出最好的答案。

特别值得注意的是,稳定秩筛选的效果远远超过了随机选择。在某些情况下,随机选择甚至会让结果变差,因为随机可能会选中质量很低的回答。而稳定秩筛选则能够可靠地识别出高质量回答,避免了这种风险。

四、核心创新——SR-GRPO训练方法

基于稳定秩这个发现,研究团队开发了一种全新的AI训练方法,叫做"稳定秩群体相对策略优化"(SR-GRPO)。这个方法的核心思想是让AI在学习过程中不断追求更高的稳定秩,从而自动提升回答质量。

这个训练过程可以比作培养一个优秀的演讲者。传统方法需要观众不断提供反馈,告诉演讲者哪里讲得好,哪里需要改进。而SR-GRPO方法则是教会演讲者通过观察自己的"内在状态"(比如思维的清晰度、逻辑的连贯性)来自我评估和改进。

具体的训练过程是这样的:对于每个训练问题,模型会生成多个候选回答,然后计算每个回答的稳定秩。稳定秩高的回答会被认为是好的,并获得正向奖励;稳定秩低的回答则被认为是差的,获得负向奖励。通过这种方式,模型逐渐学会生成具有高稳定秩的回答。

关键的技术细节在于,稳定秩的计算是基于一个"冻结"的参考模型进行的。这就像是有一个固定的"评判标准尺子",确保在训练过程中评判标准不会发生变化。如果使用正在训练的模型本身来计算稳定秩,模型可能会学会操控自己的内部表示来获得虚高的稳定秩分数,而不是真正提升回答质量。

五、实验结果——数据说话

研究团队在两个不同的模型上测试了SR-GRPO的效果:Qwen2.5-1.5B-Instruct和DeepSeek-R1-Distill-Qwen-1.5B。实验涵盖了三大类任务:STEM科学问题、数学推理问题和开放式对话。

在STEM任务上,SR-GRPO显示了显著的改进。以Qwen2.5-1.5B模型为例,GPQA(研究生水平的科学问答)任务的准确率从19.0%提升到21.2%,MMLU-redux(大学水平的多学科问答)基本保持稳定在47.7%。虽然提升幅度看似不大,但在这些高难度的学术问题上,每一个百分点的提升都是很有价值的。

在数学推理方面,改进更加明显。MATH500(竞赛级数学问题)的准确率从48.0%跃升到52.4%,提升了4.4个百分点。更令人惊喜的是,在AMC23(美国数学竞赛)问题上,准确率从35.0%大幅提升到37.5%。这些结果表明,SR-GRPO特别擅长提升需要逻辑推理和结构化思维的任务性能。

在开放式对话质量方面,WildBench评测显示SR-GRPO也带来了显著改善。该评测使用GPT-4o作为评委,对模型生成的对话进行评分。Qwen2.5-1.5B的Elo评分从1036.2提升到1062.4,增长了26.2分,这在对话质量评测中是一个相当可观的进步。

特别值得强调的是,SR-GRPO在所有测试中都超越了使用传统奖励模型的方法。传统奖励模型方法在某些任务上甚至出现了性能下降,比如在GPQA任务上从19.0%降到15.7%,这说明通用的偏好数据可能并不适用于专业化的推理任务。

六、深入理解——稳定秩到底捕捉了什么

为了理解稳定秩为什么有效,研究团队进行了详细的分析,探索稳定秩与各种文本质量指标之间的关系。他们发现稳定秩主要捕捉了三个重要的质量维度。

第一个维度是语义连贯性。研究发现,稳定秩与"进展得分"呈正相关关系,这个指标衡量的是文章中每个句子是否在前一个句子的基础上有所发展。同时,稳定秋与"问答对齐一致性"也呈正相关,这意味着高稳定秩的回答能够始终保持与问题的相关性。相反,稳定秩与"连贯性标准差"呈强负相关,这表明稳定秩偏向于避免句子间突然的主题跳跃。

第二个维度是信息密度与简洁性。出人意料的是,稳定秩与文本长度呈负相关关系。token数量和句子数量都与稳定秩呈负相关,这与许多奖励模型倾向于偏爱更长回答的问题形成了鲜明对比。但稳定秩同时与词汇多样性和压缩比呈正相关,这说明它偏爱信息密度高、用词精确的回答,而不是冗长重复的文本。

第三个维度是推理结构的识别。在对话语标记的分析中,研究团队发现了一个有趣的模式。大多数话语标记(如"此外"、"首先"、"如果"等)与稳定秩呈负相关,这表明过度依赖明确连接词的回答可能质量较低。然而,"然而"和"因为"这两类表示对比和因果关系的标记与稳定秩呈正相关。这说明稳定秩能够识别出真正重要的逻辑转折点,而不是流水账式的叙述结构。

这些发现揭示了稳定秩作为质量指标的深层机制:它偏爱那些在语义上连贯、信息上精炼、逻辑上严密的回答,这恰好符合我们对高质量文本的直觉期待。

七、技术优势——为什么稳定秩方法更胜一筹

稳定秩方法相比传统方法有几个显著优势。首先是计算效率。稳定秩的计算只需要进行一次前向传播并计算简单的矩阵范数,计算复杂度只有O(Td),其中T是序列长度,d是隐藏维度。这个开销相比transformer的前向传播来说几乎可以忽略不计。

其次是鲁棒性。研究团队测试了不同输入长度对性能的影响,发现即使将输入截断到512个token,稳定秩的性能也只有轻微下降。这说明稳定秩捕捉的是文本的核心语义结构,而不是依赖于表面的长度特征。

第三是格式无关性。研究团队测试了六种不同的输入格式,发现稳定秩的性能在不同格式间的差异不超过3个百分点。这种鲁棒性大大简化了实际应用中的配置工作。

最重要的是可扩展性。由于稳定秋不需要任何标注数据,它可以轻松扩展到新的领域和任务。传统的奖励模型需要为每个新领域收集大量偏好数据,而稳定秩方法则可以直接应用到任何文本生成任务上。

八、对比分析——稳定秩vs其他方法

研究团队还比较了稳定秩与其他几种内在维度指标的性能。他们测试了条件数(最大奇异值与最小奇异值的比值)、PCA95%方差(需要多少个主成分才能解释95%的方差)以及有效秩(基于奇异值分布熵的度量)。

结果显示稳定秩在所有类别上都明显优于其他指标。在整体准确率上,稳定秩达到84.04%,而PCA95%方差只有61.91%,有效秩为54.50%,条件数更是只有36.04%。特别是在困难的数学和安全类别上,稳定秩的优势更加明显。

这种优势的原因在于稳定秩独特的设计。条件数过于敏感于极值,容易受到异常值影响;有效秩的熵权重和PCA的离散计数方法都不太适合捕捉质量差异;而稳定秩通过Frobenius范数聚合整个奇异值谱的信息,既保持了对整体结构的敏感性,又具有良好的鲁棒性。

九、局限性与未来展望

尽管稳定秩方法表现出色,但研究团队也诚实地指出了一些局限性。首先,稳定秩与质量指标的相关性虽然显著,但强度中等(相关系数在0.2-0.4之间)。这说明稳定秩捕捉的是质量的一个重要方面,但并非全部。

其次,稳定秩方法在代码生成任务上的表现相对较弱。当输入被截断到128个token时,代码类别的准确率从87.91%骤降到24.80%,这说明代码的质量判断可能更依赖于完整的程序逻辑结构。

另外,目前的研究主要集中在英文文本上,稳定秩在其他语言上的表现还需要进一步验证。不同语言的语法结构和表达习惯可能会影响稳定秩的有效性。

未来的研究方向包括:探索稳定秩与其他质量信号的组合使用、开发针对特定领域(如代码、数学、创意写作)的优化版本、以及将稳定秩方法扩展到多模态任务中。

说到底,这项研究为AI大语言模型的训练开辟了一条全新的道路。通过直接从模型内部几何结构中提取质量信号,我们不再需要完全依赖昂贵的人工标注或容易被操控的外部奖励模型。稳定秩就像是AI模型的"内在指南针",能够帮助它们在生成过程中自主地追求更高的质量。

这种方法的价值不仅在于提升了模型性能,更在于它展示了一种全新的思路:与其试图从外部告诉AI什么是好的,不如教会它从内部感知什么是好的。这种内在的质量感知能力,可能是未来AI系统走向真正智能的重要一步。虽然目前稳定秋方法还有一些局限性,但它已经证明了内在几何结构作为质量信号的巨大潜力。

随着这一研究的深入,我们有理由期待未来的AI系统将变得更加自主、高效和可靠。对于普通用户而言,这意味着更好的AI助手、更准确的自动生成内容以及更少的"AI胡说八道"现象。而对于AI研究界,这项工作提供了一个全新的研究方向,可能会催生出更多创新的训练方法和评估技术。

Q&A

Q1:稳定秩是什么,为什么能判断AI回答质量?

A:稳定秩是一个数学概念,用来测量AI模型内部数字表示的"分布均匀程度"。当AI生成高质量回答时,它需要协调多个知识领域,这会在内部产生多维度的激活模式,导致稳定秋值较高;而低质量回答往往对应单一或混乱的思维模式,稳定秩值较低。

Q2:SR-GRPO训练方法比传统方法好在哪里?

A:SR-GRPO最大的优势是不需要人工标注数据,能够让AI通过监测自身的内部状态来自动提升质量。实验显示,在数学推理任务上,SR-GRPO比传统奖励模型方法提升了10-19个百分点,而且训练成本更低,适用范围更广。

Q3:普通人什么时候能用到这项技术?

A:这项技术主要用于改进AI大语言模型的训练过程,普通用户不会直接接触到稳定秩计算。但随着这种方法的应用,未来的AI助手、聊天机器人和自动写作工具的回答质量会变得更好,出现胡言乱语的情况会大幅减少。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-