微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 香港中文大学团队首次让AI绘画也能像人类一样"边画边思考"

香港中文大学团队首次让AI绘画也能像人类一样"边画边思考"

2025-09-16 10:31
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-09-16 10:31 科技行者

这项由香港中文大学郭子宇、张任瑞等研究人员联合北京大学、上海人工智能实验室等机构开展的突破性研究,于2025年1月发表在arXiv预印本平台,论文编号arXiv:2501.13926v2。有兴趣深入了解的读者可以通过https://github.com/ZiyuGuo99/Image-Generation-CoT访问完整论文和代码。

想象一下,你让AI画一张"红苹果放在椭圆盘子上"的图片。传统的AI就像一个闷头苦干的画师,拿起笔就开始画,经常画出奇怪的结果——比如苹果是绿的,或者盘子变成了正方形。而现在,研究团队教会了AI像人类画家一样"边画边思考":先想想"我要画什么?""这一笔画得对吗?""需要修改什么?"然后再继续画下去。

这种让AI"思考着画画"的方法,就是从OpenAI的o1模型那里借鉴来的"链式思维推理"技术。就好比教孩子做数学题时,不是直接给答案,而是教他们一步步分析:"第一步要做什么?""第二步呢?""这样做对不对?"现在,研究团队把同样的思路应用到了AI绘画上,让机器也能像人一样有条不紊地创作。

研究团队发现了一个有趣的现象:现在主流的AI绘画模型大多采用"扩散模型"技术,就像在一张模糊的画布上逐渐清晰化图像。但还有另一类模型叫"自回归生成模型",它们的工作方式更像人类画画——一个区域一个区域地逐步完成,每画一笔都要考虑前面已经画好的部分。这种特性让它们天然适合"边画边思考"的训练方式。

研究团队以Show-o模型为基础,就像选择了一个有潜力的学徒画师,然后通过三种巧妙的训练方法来提升它的绘画水平。第一种方法叫"测试时验证",就像给画师配了一个严格的评审员,画完每一步都要检查:"这一笔画得怎么样?"如果不满意就重新画。第二种方法是"偏好对齐训练",相当于让画师多看优秀作品和糟糕作品的对比,逐渐培养出好的审美品味。第三种方法是把前两种结合起来,既有严格的评审,又有不断的品味培养。

在"测试时验证"的探索中,研究团队发现了一个关键问题:传统的评判标准不太适用于绘画过程。就像评价一个厨师,你不能只看最后的菜品,还要看整个烹饪过程中的每个步骤。对于绘画AI来说,早期的画面往往很模糊,就像素描的初稿,很难判断好坏;而后期的画面虽然清晰,但不同路径画出的结果往往很相似,也难以区分优劣。

为了解决这个问题,研究团队开发了一个专门的"潜力评估奖励模型"(PARM),就像培训了一个既懂绘画技法又有长远眼光的艺术老师。这个老师不仅能看出现在的画面质量,还能预测"这样画下去最终会是什么效果"。更厉害的是,PARM还知道什么时候该开始认真评价——太早了画面还太模糊没法判断,太晚了已经定型没法修改,只有在恰当的时机才给出指导意见。

PARM的工作方式分为三个步骤,就像一个经验丰富的绘画导师。首先是"清晰度判断":它会观察当前的画面,判断是否已经足够清晰到可以进行评价。如果画面还太模糊,就耐心等待;如果已经比较清晰了,就进入下一步。然后是"潜力评估":它会分析这个画面继续画下去是否有希望达到理想效果,就像一个老师看学生的草图时能预判最终作品的质量。最后是"最终选择":从所有被判定为"有潜力"的画作中挑出最好的一个作为最终结果。

研究团队还开发了PARM++,这相当于给AI画师增加了"自我反思"的能力。当PARM++觉得画作还不够好时,它会具体指出哪里有问题,比如"物体颜色不对"或"位置关系错误",然后引导AI重新修改。这就像一个画家画完后自己审视作品,发现问题后主动修正,而不是被动接受批评。

在实际测试中,研究成果表现令人惊喜。在GenEval这个专业的图像生成评测基准上,经过"思维训练"的AI比原来的基础模型提高了24%,甚至比著名的Stable Diffusion 3模型还要高出15%。这就好比一个原本中等水平的画师,经过系统训练后不仅大幅提升了自己的水平,还超越了一些知名画家。

研究团队特别关注那些最考验AI绘画能力的场景,比如画多个物体、数数、准确表达颜色、描述空间位置关系等等。传统的AI在这些方面经常出错,比如让它画"三个红苹果",结果画成了两个绿苹果;让它画"蓝色杯子在红色书本左边",结果位置关系完全颠倒。而经过"思维训练"的AI在这些方面都有了显著改善,就像一个原本粗心的学生变得细致认真了。

从技术角度来看,这项研究的创新之处在于首次系统性地将"链式思维推理"应用到了自回归图像生成领域。研究团队不是简单地照搬文本领域的方法,而是深入分析了图像生成的特殊性,设计了专门适合的训练和评估策略。他们发现,相比于传统的奖励模型,PARM能够更好地处理图像生成过程中的模糊性和渐进性特征。

值得注意的是,这种方法不仅适用于Show-o模型,研究团队还在LlamaGen和Janus-Pro等其他自回归生成模型上进行了验证,都取得了一致的改善效果。这说明"让AI思考着画画"这个思路具有很好的普适性,就像一套好的教学方法可以应用到不同的学生身上。

研究过程中也暴露了一些有趣的现象。比如,单纯的"测试时验证"效果不如"偏好对齐训练",这说明让AI通过对比学习来提升品味,比单纯的反复检查更有效。但是当两种方法结合使用时,效果会进一步提升,这证实了不同训练策略的互补性。

从实际应用的角度来看,这项技术可能会改变我们与AI绘画工具的交互方式。目前的AI绘画工具往往需要用户不断调整提示词、反复生成,直到得到满意的结果。而具备"思维能力"的AI可能会更加智能,能够理解复杂的描述,自主处理细节问题,减少用户的试错成本。

研究团队还发现,让AI进行"自我反思"虽然会带来额外的计算开销,但能够显著提升最终结果的质量。这就像让画家多花一些时间思考和修改,虽然效率略有下降,但作品质量会大幅提升。在实际应用中,用户可以根据需求选择是要快速生成还是高质量生成。

这项研究的意义不仅限于技术层面,它还为AI创作领域提供了新的思路。传统上,我们往往把AI看作是一个"黑盒子",输入需求就输出结果。而这项研究展示了让AI具备"元认知"能力的可能性——不仅知道如何做,还知道如何检查自己做得对不对,如何改进。

当然,这项技术也有其局限性。目前的方法主要针对自回归生成模型,对于占据主流地位的扩散模型还需要进一步的适配和优化。此外,增加的"思维"过程会带来一定的计算开销,在资源受限的环境下可能会影响使用体验。研究团队在论文中诚实地讨论了这些限制,并提出了未来的改进方向。

从更广阔的视角来看,这项研究是AI能力演进的一个重要里程碑。它不仅仅是让机器画画画得更好,更重要的是探索了让机器具备"自我意识"和"反思能力"的路径。这种"会思考的AI"可能会在更多领域发挥作用,从写作、编程到科学研究,都可能受益于这种"边做边思考"的智能模式。

总的来说,香港中文大学团队的这项研究为AI绘画领域带来了新的突破,不仅在技术上实现了显著的性能提升,更在理念上展示了"思考型AI"的巨大潜力。随着这项技术的进一步发展和优化,我们可能会看到更加智能、更加可靠的AI创作工具,它们不仅能够理解我们的需求,还能像人类创作者一样进行思考、判断和自我完善。

Q&A

Q1:PARM是什么?它跟传统的AI绘画评判方法有什么不同?

A:PARM是"潜力评估奖励模型"的简称,是专门为AI绘画设计的智能评判系统。传统方法要么只看最终结果,要么对每个步骤都强行评判,而PARM更聪明——它知道什么时候该开始评价(画面足够清晰时),能预测画作的发展潜力,就像一个经验丰富的绘画老师既能看出学生草图的问题,又能预判最终效果。

Q2:这种让AI"边画边思考"的方法会让绘画速度变慢吗?

A:确实会增加一些计算时间,因为AI需要额外的"思考"过程来评估和调整。但研究团队发现这种时间投入是值得的——虽然单次生成稍慢一些,但画出好作品的成功率大大提高,用户不需要反复重新生成,总体效率反而可能更高。就像画家多花时间思考构图,虽然慢一点但能避免返工。

Q3:这项技术什么时候能在日常的AI绘画工具中使用?

A:目前研究团队已经在GitHub上开源了相关代码(https://github.com/ZiyuGuo99/Image-Generation-CoT),技术开发者可以基于此进行开发。但要集成到像Midjourney、Stable Diffusion这样的主流工具中,还需要进一步的工程优化和适配工作。预计在未来1-2年内,我们可能会在一些新的AI绘画产品中看到类似的"思考型"功能。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-