微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 香港中文大学团队首次让AI绘画也能像人类一样"边画边思考"

香港中文大学团队首次让AI绘画也能像人类一样"边画边思考"

2025-09-16 10:31
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-09-16 10:31 科技行者

这项由香港中文大学郭子宇、张任瑞等研究人员联合北京大学、上海人工智能实验室等机构开展的突破性研究,于2025年1月发表在arXiv预印本平台,论文编号arXiv:2501.13926v2。有兴趣深入了解的读者可以通过https://github.com/ZiyuGuo99/Image-Generation-CoT访问完整论文和代码。

想象一下,你让AI画一张"红苹果放在椭圆盘子上"的图片。传统的AI就像一个闷头苦干的画师,拿起笔就开始画,经常画出奇怪的结果——比如苹果是绿的,或者盘子变成了正方形。而现在,研究团队教会了AI像人类画家一样"边画边思考":先想想"我要画什么?""这一笔画得对吗?""需要修改什么?"然后再继续画下去。

这种让AI"思考着画画"的方法,就是从OpenAI的o1模型那里借鉴来的"链式思维推理"技术。就好比教孩子做数学题时,不是直接给答案,而是教他们一步步分析:"第一步要做什么?""第二步呢?""这样做对不对?"现在,研究团队把同样的思路应用到了AI绘画上,让机器也能像人一样有条不紊地创作。

研究团队发现了一个有趣的现象:现在主流的AI绘画模型大多采用"扩散模型"技术,就像在一张模糊的画布上逐渐清晰化图像。但还有另一类模型叫"自回归生成模型",它们的工作方式更像人类画画——一个区域一个区域地逐步完成,每画一笔都要考虑前面已经画好的部分。这种特性让它们天然适合"边画边思考"的训练方式。

研究团队以Show-o模型为基础,就像选择了一个有潜力的学徒画师,然后通过三种巧妙的训练方法来提升它的绘画水平。第一种方法叫"测试时验证",就像给画师配了一个严格的评审员,画完每一步都要检查:"这一笔画得怎么样?"如果不满意就重新画。第二种方法是"偏好对齐训练",相当于让画师多看优秀作品和糟糕作品的对比,逐渐培养出好的审美品味。第三种方法是把前两种结合起来,既有严格的评审,又有不断的品味培养。

在"测试时验证"的探索中,研究团队发现了一个关键问题:传统的评判标准不太适用于绘画过程。就像评价一个厨师,你不能只看最后的菜品,还要看整个烹饪过程中的每个步骤。对于绘画AI来说,早期的画面往往很模糊,就像素描的初稿,很难判断好坏;而后期的画面虽然清晰,但不同路径画出的结果往往很相似,也难以区分优劣。

为了解决这个问题,研究团队开发了一个专门的"潜力评估奖励模型"(PARM),就像培训了一个既懂绘画技法又有长远眼光的艺术老师。这个老师不仅能看出现在的画面质量,还能预测"这样画下去最终会是什么效果"。更厉害的是,PARM还知道什么时候该开始认真评价——太早了画面还太模糊没法判断,太晚了已经定型没法修改,只有在恰当的时机才给出指导意见。

PARM的工作方式分为三个步骤,就像一个经验丰富的绘画导师。首先是"清晰度判断":它会观察当前的画面,判断是否已经足够清晰到可以进行评价。如果画面还太模糊,就耐心等待;如果已经比较清晰了,就进入下一步。然后是"潜力评估":它会分析这个画面继续画下去是否有希望达到理想效果,就像一个老师看学生的草图时能预判最终作品的质量。最后是"最终选择":从所有被判定为"有潜力"的画作中挑出最好的一个作为最终结果。

研究团队还开发了PARM++,这相当于给AI画师增加了"自我反思"的能力。当PARM++觉得画作还不够好时,它会具体指出哪里有问题,比如"物体颜色不对"或"位置关系错误",然后引导AI重新修改。这就像一个画家画完后自己审视作品,发现问题后主动修正,而不是被动接受批评。

在实际测试中,研究成果表现令人惊喜。在GenEval这个专业的图像生成评测基准上,经过"思维训练"的AI比原来的基础模型提高了24%,甚至比著名的Stable Diffusion 3模型还要高出15%。这就好比一个原本中等水平的画师,经过系统训练后不仅大幅提升了自己的水平,还超越了一些知名画家。

研究团队特别关注那些最考验AI绘画能力的场景,比如画多个物体、数数、准确表达颜色、描述空间位置关系等等。传统的AI在这些方面经常出错,比如让它画"三个红苹果",结果画成了两个绿苹果;让它画"蓝色杯子在红色书本左边",结果位置关系完全颠倒。而经过"思维训练"的AI在这些方面都有了显著改善,就像一个原本粗心的学生变得细致认真了。

从技术角度来看,这项研究的创新之处在于首次系统性地将"链式思维推理"应用到了自回归图像生成领域。研究团队不是简单地照搬文本领域的方法,而是深入分析了图像生成的特殊性,设计了专门适合的训练和评估策略。他们发现,相比于传统的奖励模型,PARM能够更好地处理图像生成过程中的模糊性和渐进性特征。

值得注意的是,这种方法不仅适用于Show-o模型,研究团队还在LlamaGen和Janus-Pro等其他自回归生成模型上进行了验证,都取得了一致的改善效果。这说明"让AI思考着画画"这个思路具有很好的普适性,就像一套好的教学方法可以应用到不同的学生身上。

研究过程中也暴露了一些有趣的现象。比如,单纯的"测试时验证"效果不如"偏好对齐训练",这说明让AI通过对比学习来提升品味,比单纯的反复检查更有效。但是当两种方法结合使用时,效果会进一步提升,这证实了不同训练策略的互补性。

从实际应用的角度来看,这项技术可能会改变我们与AI绘画工具的交互方式。目前的AI绘画工具往往需要用户不断调整提示词、反复生成,直到得到满意的结果。而具备"思维能力"的AI可能会更加智能,能够理解复杂的描述,自主处理细节问题,减少用户的试错成本。

研究团队还发现,让AI进行"自我反思"虽然会带来额外的计算开销,但能够显著提升最终结果的质量。这就像让画家多花一些时间思考和修改,虽然效率略有下降,但作品质量会大幅提升。在实际应用中,用户可以根据需求选择是要快速生成还是高质量生成。

这项研究的意义不仅限于技术层面,它还为AI创作领域提供了新的思路。传统上,我们往往把AI看作是一个"黑盒子",输入需求就输出结果。而这项研究展示了让AI具备"元认知"能力的可能性——不仅知道如何做,还知道如何检查自己做得对不对,如何改进。

当然,这项技术也有其局限性。目前的方法主要针对自回归生成模型,对于占据主流地位的扩散模型还需要进一步的适配和优化。此外,增加的"思维"过程会带来一定的计算开销,在资源受限的环境下可能会影响使用体验。研究团队在论文中诚实地讨论了这些限制,并提出了未来的改进方向。

从更广阔的视角来看,这项研究是AI能力演进的一个重要里程碑。它不仅仅是让机器画画画得更好,更重要的是探索了让机器具备"自我意识"和"反思能力"的路径。这种"会思考的AI"可能会在更多领域发挥作用,从写作、编程到科学研究,都可能受益于这种"边做边思考"的智能模式。

总的来说,香港中文大学团队的这项研究为AI绘画领域带来了新的突破,不仅在技术上实现了显著的性能提升,更在理念上展示了"思考型AI"的巨大潜力。随着这项技术的进一步发展和优化,我们可能会看到更加智能、更加可靠的AI创作工具,它们不仅能够理解我们的需求,还能像人类创作者一样进行思考、判断和自我完善。

Q&A

Q1:PARM是什么?它跟传统的AI绘画评判方法有什么不同?

A:PARM是"潜力评估奖励模型"的简称,是专门为AI绘画设计的智能评判系统。传统方法要么只看最终结果,要么对每个步骤都强行评判,而PARM更聪明——它知道什么时候该开始评价(画面足够清晰时),能预测画作的发展潜力,就像一个经验丰富的绘画老师既能看出学生草图的问题,又能预判最终效果。

Q2:这种让AI"边画边思考"的方法会让绘画速度变慢吗?

A:确实会增加一些计算时间,因为AI需要额外的"思考"过程来评估和调整。但研究团队发现这种时间投入是值得的——虽然单次生成稍慢一些,但画出好作品的成功率大大提高,用户不需要反复重新生成,总体效率反而可能更高。就像画家多花时间思考构图,虽然慢一点但能避免返工。

Q3:这项技术什么时候能在日常的AI绘画工具中使用?

A:目前研究团队已经在GitHub上开源了相关代码(https://github.com/ZiyuGuo99/Image-Generation-CoT),技术开发者可以基于此进行开发。但要集成到像Midjourney、Stable Diffusion这样的主流工具中,还需要进一步的工程优化和适配工作。预计在未来1-2年内,我们可能会在一些新的AI绘画产品中看到类似的"思考型"功能。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-