微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 马里兰大学团队突破AI评价瓶颈:让机器学会"品味"文章好坏的秘密武器

马里兰大学团队突破AI评价瓶颈:让机器学会"品味"文章好坏的秘密武器

2025-06-24 13:50
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-06-24 13:50 科技行者

这项由马里兰大学的李宗霞、常雅培、周宇航、吴西阳、梁志超、成有妍、Jordan Lee Boyd-Graber等研究者领导的研究发表于2025年,有兴趣深入了解的读者可以通过https://github.com/zli12321/long_form_rl访问完整代码和论文。

当我们让AI写一篇文章或回答一个问题时,最头疼的问题是什么?不是让它写得更长,而是让它写得更好。就像教一个学生写作文一样,我们很容易告诉他"再写500个字",但很难告诉他"写得更有深度、更有逻辑、更吸引人"。这个看似简单的问题,实际上是人工智能领域一个非常棘手的挑战。

马里兰大学的研究团队发现了这个问题的核心所在。目前的AI训练就像是在用一把尺子来评判文章质量——传统的评价方法只会机械地比较词汇重复率或者句子相似度,完全无法理解文章的真正价值。这就好比让一个从未读过书的人去评判两篇文章的优劣,他只能数数哪篇字数更多,哪篇用了更复杂的词汇,但完全看不出哪篇更有说服力、更清晰易懂或者更有创意。

研究团队发现,当前最先进的AI训练方法GRPO(群体相对策略优化)在处理数学题这样有标准答案的任务时表现出色,但在处理开放性写作任务时却显得力不从心。这就像是一个优秀的数学老师试图去教语文写作——他知道数学题的对错,但面对一篇散文时却不知道该如何评价其好坏。

为了解决这个问题,研究团队开发了一个名为PrefBERT的智能评价系统。这个系统就像是培养了一位有经验的语文老师,专门负责评判文章质量。与传统方法不同的是,PrefBERT接受了大量人类评分员标注的文章质量数据训练,学会了从人类的角度来理解什么是好文章。

PrefBERT的工作原理相当巧妙。研究团队使用了两个包含丰富评分数据的数据集来训练这个系统。第一个是Prometheus-preference数据集,包含20万个经过精细评分的长篇回答,评分维度包括适应性交流、情感智能等十个方面。第二个是MOCHA数据集,专门用于评判中长篇文章的整体正确性。这两个数据集就像是给PrefBERT提供了大量的"标准答案",让它学会了人类专家的评判标准。

在具体实现上,PrefBERT基于ModernBERT模型构建,这是一个相对轻量级的模型,只有1.5亿个参数。这个设计选择非常聪明——它既保证了评价的准确性,又确保了训练和使用时的效率。系统的工作流程是这样的:给定一个参考答案和一个待评价答案,PrefBERT会将它们拼接在一起,通过深度学习网络处理后,输出一个0到1之间的质量分数。

研究团队在三个不同类型的数据集上测试了PrefBERT的效果。第一个是ELI5数据集,来源于Reddit上的"像给五岁孩子解释一样"社区,包含各种需要用通俗语言解释复杂概念的问答。第二个是Alpaca数据集,包含5.2万个由GPT-3生成的指令-回答对,涵盖了各种不同类型的任务。第三个是LongForm数据集,包含从维基百科、Common Crawl等来源构建的长篇文档,配有由AI生成的反向指令。

实验结果令人印象深刻。当研究团队使用PrefBERT作为奖励信号来训练AI模型时,即使是相对较小的模型(如Qwen2.5-3B)也能产生接近大型模型(如Qwen2.5-7B)质量的回答。这就像是一个经验丰富的教练能够让普通运动员发挥出接近专业选手的水平。

更有趣的是,研究团队发现传统的评价指标存在严重缺陷。比如ROUGE和BERTScore这样的传统指标,在面对明显质量差异很大的两篇文章时,居然给出了几乎相同的分数。这就像是一个色盲的人试图区分红绿灯——完全无法识别出关键差异。

而一些通用的大型奖励模型虽然能够提供更好的评价,但它们往往倾向于偏爱更长的回答,而不是更好的回答。这创造了一种"奖励欺骗"现象——AI学会了通过写得更冗长而不是更有价值来获得高分。这就像是一个学生发现老师只看作文的字数,于是开始大量使用废话来凑字数。

为了验证PrefBERT的真实效果,研究团队进行了大规模的人工评价实验。他们随机选择了150个测试问题,收集了七个不同模型的回答,然后让人类专家进行盲评。结果显示,使用PrefBERT训练的模型在人类评价中表现优异,平均评分达到3.36分(满分5分),成功率达到51%。

特别值得注意的是,人类评价结果揭示了一个重要问题:那些在自动评价中得分很高的冗长回答,在人类专家眼中实际上质量较低。使用通用大型奖励模型训练的AI平均生成710个词的回答,几乎是PrefBERT训练模型(258词)的三倍,但人类专家认为这些冗长的回答缺乏重点且难以阅读。

研究团队还深入分析了不同训练方法产生的差异。使用PrefBERT训练的模型展现出了两个主要优势:更好的指令遵循能力和更自然的语调流畅度。当面对有具体约束的指令(如"用两句话解释")时,基础模型经常无法遵守这些限制,而PrefBERT训练的模型能够准确遵循。同时,PrefBERT训练的模型还能产生更加流畅、连贯的回答,避免了基础模型那种机械拼凑的感觉。

有趣的是,研究发现PrefBERT训练的模型更倾向于使用结构化的输出格式,如Markdown标记。这种结构化不仅提高了可读性,也显示了模型对内容组织的更深理解。相比之下,使用传统指标训练的模型往往产生通用化的回答,有时还会出现严重的重复问题。

与传统的监督微调方法相比,GRPO结合PrefBERT的训练方式显示出明显优势。监督微调的模型往往产生模糊、过于简化的回答,有时甚至会回避问题。而使用强大奖励信号训练的GRPO模型能够更好地利用模型的内在能力,产生更高质量的回答。

这项研究的意义远不止于技术层面的突破。它为AI系统如何学习人类偏好提供了新的思路,特别是在那些没有标准答案的开放性任务中。这种方法可能会被应用到创意写作、研究设计、开放性数学问题等多个领域。

当然,这项研究也有其局限性。研究团队坦承,他们没有尝试使用更大规模的语言模型作为奖励提供者,主要是由于计算资源的限制。更大的评价模型可能提供更可靠、语义上更准确的奖励信号,但也会显著增加GPU内存使用和训练时间。

此外,研究团队使用的训练数据相对较小——PrefBERT只使用了1.9万个样本进行训练,而对比的通用奖励模型使用了8万个样本。这种规模差异可能影响了不同方法的公平比较。

展望未来,这项研究为AI训练开辟了新的方向。研究团队建议,未来的工作可以扩展到更多样化的开放性生成任务,如创意写作、创意研究设计或开放性数学问题。同时,开发更高效、更强大的可验证奖励模型也是一个重要方向。

说到底,这项研究解决的是一个根本性问题:如何让AI不仅能够生成内容,更能生成高质量的内容。这就像是从教会一个人说话,进步到教会他说有价值的话。在AI越来越深入我们生活的今天,这种质量导向的训练方法可能会根本性地改变我们与AI交互的体验,让AI助手变得真正智能、真正有用。

Q&A

Q1:PrefBERT是什么?它能做什么? A:PrefBERT是马里兰大学团队开发的AI文章质量评价系统,专门用来判断AI生成文章的好坏。它通过学习人类专家的评分标准,能够像有经验的语文老师一样评判文章质量,而不是简单地比较字数或词汇相似度。

Q2:为什么传统的AI评价方法不好用? A:传统方法就像让一个从未读过书的人评判文章优劣,只能机械地比较词汇重复率或句子相似度,完全无法理解文章的真正价值。面对质量差异很大的两篇文章,传统方法居然会给出几乎相同的分数,根本起不到指导作用。

Q3:使用PrefBERT训练的AI有什么特别之处? A:使用PrefBERT训练的AI模型能写出更高质量的文章,表现在两个方面:一是更好地遵循具体指令要求,二是语言更自然流畅。即使是较小的模型也能达到接近大型模型的质量水平,而且避免了冗长废话的问题。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-