
这项由香港大学、加州大学伯克利分校以及谷歌DeepMind等顶尖机构联合进行的研究发表于2025年第42届国际机器学习大会(ICML),研究团队由朱天哲、翟越翔等多位学者共同完成。有兴趣深入了解的读者可以通过项目主页https://tianzhechu.com/SFTvsRL获取完整论文信息。
想象你面前有两个孩子在学数学,一个死记硬背乘法表,考试时只要题目稍有变化就抓瞎;另一个真正理解了乘法原理,遇到新题型也能触类旁通。这就是当前AI训练中的一个根本性问题——我们的AI到底是在"死记硬背"还是在"真正学习"?
长期以来,训练AI就像教育孩子一样,主要有两种方法:一种叫做监督微调(SFT),就像传统的填鸭式教育,给AI看大量标准答案,让它模仿;另一种叫做强化学习(RL),更像启发式教育,让AI在尝试中学习,做对了给奖励,做错了给惩罚。但是这两种方法哪种更能让AI真正"开窍",一直是个未解之谜。
研究团队就像教育专家一样,设计了精巧的实验来探究这个问题。他们创建了一个类似"算24点"的数学游戏,给AI四张卡片,让它用加减乘除算出24这个数字。更巧妙的是,他们还设计了不同的"考试规则"——有时候J、Q、K代表10,有时候代表11、12、13,就像同一道数学题用不同的符号系统表达。
结果令人震撼。当面对新规则时,用强化学习训练的AI就像那个真正理解数学原理的孩子,能够灵活应对变化,成功率显著提升。比如在纯文本环境中,强化学习让AI的表现从80.8%提升到91.8%,提升了整整11个百分点。而监督微调训练的AI就像死记硬背的学生,一遇到新规则就"傻眼"了,表现从80.8%暴跌到仅仅1.3%,几乎完全失效。
但故事还没有结束。研究团队又引入了视觉挑战——不再用文字描述卡片,而是让AI看真实的卡片图像。这就像让孩子不仅要会算数,还要能认识不同字体写的数字。在这种情况下,强化学习训练的AI依然表现出色,不仅能准确识别卡片,还能灵活运用数学规则。
更有趣的是,研究团队发现了一个类似"因材施教"的现象。虽然强化学习在培养AI的"真正理解力"方面表现突出,但监督微调仍然有其独特价值——它就像教孩子基本的行为规范和表达格式,让AI学会如何"好好说话"。如果跳过这个基础训练直接用强化学习,就像让一个连话都说不清楚的孩子直接学高等数学,效果会很差。
研究团队还测试了一个真实世界的导航任务,让AI在城市中根据指令找路。当训练环境是绝对方向(东南西北)而测试环境改为相对方向(左转右转)时,同样的现象再次出现:强化学习训练的AI能够成功适应新的表达方式,而监督微调的AI则迷失在规则变化中。
这些发现就像教育心理学的重大突破一样意义深远。研究显示,强化学习不仅让AI学会了更深层的推理能力,甚至还意外提升了它的视觉识别能力。这就好比一个孩子在学数学的过程中,不仅数学变好了,连观察力也变强了。
当然,这项研究也揭示了一些局限性。就像教育需要因材施教一样,AI训练也需要根据具体情况选择合适的方法。如果初始模型太"笨"(不会基本表达),或者已经被训练得过度"固执"(过度拟合),强化学习也难以发挥作用。
这项研究的意义远不止于学术探讨。在ChatGPT、Claude等AI助手日益普及的今天,理解如何让AI真正"聪明"而不是仅仅"博学",对于构建更可靠、更智能的AI系统具有重要意义。未来,我们可能会看到更多结合两种训练方法优势的AI系统——既有扎实的基础(监督微调),又有灵活的思维(强化学习)。
说到底,这项研究告诉我们一个简单而深刻的道理:无论是教育孩子还是训练AI,死记硬背只能应付已知问题,而真正的智慧来自于在挑战中学习和适应。正如古语所说,"授人以鱼不如授人以渔",给AI标准答案不如教会它思考的方法。这或许就是人工智能向真正智能迈进的关键一步。
当我们下次使用AI助手时,不妨想想这个问题:它是在背诵训练时见过的内容,还是在真正理解我们的需求?这项研究为我们提供了答案的线索,也为AI的未来发展指明了方向。
Q&A
Q1:监督微调和强化学习在AI训练中有什么区别?
A:监督微调就像传统的填鸭式教育,给AI看大量标准答案让它模仿,类似死记硬背。强化学习更像启发式教育,让AI在尝试中学习,做对了给奖励,做错了给惩罚,培养真正的理解能力。
Q2:为什么强化学习训练的AI面对新规则表现更好?
A:强化学习让AI学会了底层的推理原理,而不是简单记忆表面规律。就像真正理解数学原理的学生遇到新题型也能触类旁通,而死记硬背的学生一遇到变化就束手无策。
Q3:监督微调在AI训练中还有价值吗?
A:绝对有价值。监督微调就像教孩子基本的行为规范,让AI学会如何"好好说话"和正确表达。研究发现,如果跳过监督微调直接用强化学习,效果会很差,因为AI连基本的表达格式都不会。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。