微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 上海人工智能实验室革命性突破:让AI像人一样"看几眼"就能精准评价视觉作品

上海人工智能实验室革命性突破:让AI像人一样"看几眼"就能精准评价视觉作品

2026-03-06 15:03
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2026-03-06 15:03 科技行者

这项由上海人工智能实验室与新加坡南洋理工大学S-Lab联合开展的研究发表于2025年8月,论文编号为arXiv:2412.09645v3,为视觉生成模型的评价方式带来了颠覆性变革。

想象一下,当你想要评价一个画家的水平时,你不需要看完他所有的画作,只需要观察几幅作品就能形成准确判断。同样地,当专业艺术评论家评估一位艺术家时,他们也不会机械地按照固定清单逐项打分,而是会根据观察到的内容灵活调整评价重点。现在,研究人员成功让人工智能也具备了这种"人性化"的评价能力。

传统的AI图像和视频生成模型评价方法就像是用流水线检验产品质量一样死板。它们需要生成成百上千张图片或视频,然后按照预设的固定标准逐一打分,整个过程不仅耗时巨大,还无法根据用户的具体需求进行调整。更重要的是,这些传统方法只会给出一个冷冰冰的数字分数,完全不会解释为什么得到这个分数。

研究团队开发的"评价代理"(Evaluation Agent)系统彻底改变了这种局面。这套系统就像一位经验丰富的艺术评论家,能够根据用户的具体要求,仅仅通过观察少量样本就做出准确而详细的评价。更神奇的是,它不仅会给出评价结果,还会像真正的专家一样详细解释评价的理由和过程。

这个突破性系统具备四个核心优势。在效率方面,它将评价时间压缩到了传统方法的十分之一,就像从需要看完整部电影才能写影评,变成了看几个精彩片段就能准确把握电影质量。在灵活性方面,用户可以用自然语言提出任何评价要求,系统会像贴心助手一样按照用户的具体需求进行评价。在解释能力方面,系统会提供详细的分析报告,而不是简单的数字分数,就像专业顾问会耐心解释推荐理由一样。在扩展性方面,这套系统可以轻松整合新的评价工具和模型,具有很强的适应性。

一、智能评价的工作原理

评价代理系统的工作方式非常像一位专业顾问的思考过程。当接收到用户的评价请求后,系统会首先分析用户真正关心的是什么,然后制定一个初步的评价策略。

整个系统由两个核心部分组成,就像一个专业团队中的策划师和执行者。策划部分包含两个智能代理:计划代理负责整体策略规划,就像项目经理一样统筹全局,决定评价的方向和重点;提示生成代理则专门负责设计具体的测试内容,就像创意总监一样为每个评价环节量身定制合适的任务。

执行部分则负责具体的测试和分析工作。它会调用视觉生成模型创建测试内容,然后使用专业的评价工具进行分析,最后将结果反馈给策划部分进行下一轮的规划调整。

这种动态循环的工作方式使得系统能够像真正的专家一样思考。如果第一轮测试发现某个模型在生成单个物体方面表现出色,系统会自动调整策略,进一步测试该模型处理复杂场景的能力。这种自适应的评价过程确保了每次评价都能深入挖掘模型的真正优缺点。

计划代理的工作方式特别值得关注。它不仅要根据用户需求制定评价策略,还要在每一轮测试后仔细观察结果,并基于这些观察调整后续的评价重点。整个过程中,系统都会记录自己的"思考过程",解释为什么选择特定的评价方向,为什么认为已经收集到足够的信息可以得出结论。

二、突破传统评价方式的局限

传统的视觉生成模型评价方法存在许多根本性问题。这些方法就像用标准化考试来评价学生的创造力一样不合适。它们通常需要生成数千个样本,耗费大量时间和计算资源,特别是对于那些本身生成速度就很慢的扩散模型来说,这种评价方式简直是雪上加霜。

更严重的问题是,这些传统方法使用的都是预先设定好的固定评价标准。就像用同一套问卷调查不同行业的工作满意度一样,这种一刀切的方法根本无法满足不同用户的个性化需求。如果用户想要了解某个模型在生成特定风格艺术作品方面的能力,传统方法可能根本没有相关的测试项目。

另一个关键问题是,传统方法只会输出冷冰冰的数字分数,完全不提供任何解释。用户看到一个模型在某个维度得了0.75分,但完全不知道这个分数意味着什么,更不知道模型的具体优缺点在哪里。这就像医生只告诉病人"你的健康指数是7.2",但不解释这个数字代表什么,也不提供任何改善建议。

评价代理系统完全颠覆了这些传统做法。它的评价过程更像是一位经验丰富的艺术评论家在工作。当面对一个新的艺术作品时,评论家不会机械地按照清单逐项打分,而是会根据作品的特点灵活调整评价重点。如果发现作品在色彩运用方面有独特之处,评论家会深入分析这一特点;如果发现作品在构图方面存在问题,评论家会重点关注这个问题并给出具体建议。

这种人性化的评价方式不仅更加高效,还能提供更有价值的洞察。系统会根据中间观察到的结果动态调整评价策略,避免在已经明确的方面浪费时间,而是将注意力集中在最需要深入了解的方面。这种智能化的策略调整确保了评价过程既全面又高效。

三、实验验证展现惊人效果

研究团队进行了大量实验来验证评价代理系统的有效性,结果令人印象深刻。他们选择了多个主流的图像和视频生成模型进行测试,包括Stable Diffusion系列、VideoCrafter系列等知名模型。

在视频生成模型的评价实验中,研究团队选择了VBench这个权威评价框架进行对比。VBench是目前最全面的视频生成评价标准,包含15个不同的评价维度,从主题一致性到美学质量等各个方面。传统的VBench评价需要生成4000多个视频样本,耗时数小时到数十小时不等。

评价代理系统的表现简直是颠覆性的。它只需要生成大约25个样本,用时不到30分钟,就能达到与传统方法相当的评价准确度。具体来说,在大多数评价维度上,系统的判断准确率都能达到80%以上,而在一些维度上甚至能达到100%的准确率。这就像一位经验丰富的品酒师只需要品尝几口就能准确判断酒的品质,而不需要喝完整瓶酒。

在图像生成模型的评价实验中,结果同样令人振奋。传统的T2I-CompBench评价框架需要生成1万2千个图像样本,耗时数小时。而评价代理系统只需要大约26个样本,几分钟就能完成评价,准确率依然保持在很高水平。

特别值得注意的是,系统在处理一些基于统计的评价维度时遇到了一些挑战。这些维度的评价结果是二进制的(要么对要么错),对样本数量比较敏感。但是研究团队通过增加样本数量的实验发现,当样本数量适当增加时,系统在这些维度上的表现也会显著改善。这说明系统具有很好的可调节性,可以根据评价需求的不同调整评价策略。

研究团队还测试了不同大语言模型作为系统核心的效果。他们发现GPT-4o作为核心时表现最好,能够提供最准确和最有用的评价结果。Claude模型作为核心时也能取得不错的效果,但在某些方面略逊一筹。而Gemini模型则在工具选择和循环控制方面存在一些问题,有时会选择错误的评价工具或陷入重复循环。

四、开放式问题评价的创新突破

评价代理系统最令人激动的创新之一是它能够处理开放式的用户问题。传统评价方法就像标准化考试,只能回答预设好的问题。而这个系统更像一位博学的顾问,能够理解和回答用户提出的任何合理问题。

为了验证这一能力,研究团队构建了一个包含100个开放式用户问题的数据集。这些问题涵盖了用户在实际使用中可能关心的各个方面,从基本的图像质量到复杂的创意表达能力。他们将这些问题分为不同类型:有些关注模型的基本功能(比如是否能准确跟随提示),有些关注视觉质量(比如图像是否清晰自然),还有些关注创造力和知识水平。

系统处理开放式问题的方式特别巧妙。它不是简单地套用现有的评价工具,而是采用了视觉问答的方式。当需要评价某个特定方面时,系统会生成相应的测试内容,然后像人一样"观察"这些内容,并回答针对性的问题。比如,当用户问"这个模型能否生成不同艺术风格的变体作品"时,系统会设计一系列测试,从简单的风格复制到复杂的风格融合,逐步深入地探索模型的能力边界。

一个典型的例子展现了系统的智能评价过程。当用户询问某个模型是否能在保持原有风格的同时创作艺术作品变体时,系统首先测试了模型复制基础艺术风格的能力,比如印象派和立体主义。发现模型在这方面表现出色后,系统进一步测试了风格一致性维持能力,然后是风格融合能力,最后是复杂的多文化艺术风格整合能力。

整个评价过程就像一位艺术评论家在深入了解一位艺术家的创作能力。每一轮测试的结果都会影响下一轮的策略选择。当发现模型在单一风格复制方面能力很强时,系统会自然地将注意力转向更具挑战性的风格融合任务。当发现模型在风格融合方面存在困难时,系统会进一步探索这种困难的具体表现和边界。

最终,系统不仅会给出综合评价结论,还会提供详细的分析报告。报告会解释模型在不同方面的具体表现,指出优势和不足,并说明这些发现对用户的实际意义。这种评价方式比传统的数字分数要有用得多,因为它提供了用户真正需要的信息。

五、技术架构的精妙设计

评价代理系统的技术架构体现了研究团队的深思熟虑。整个系统采用了模块化设计,就像一套精心设计的积木系统,每个部分都有明确的功能,同时又能灵活组合。

系统的核心是两个阶段的循环工作流程。提案阶段就像战略规划会议,系统会分析用户需求,确定评价重点,设计具体的测试方案。执行阶段则像实地调研,系统会按照制定的方案进行实际测试,收集数据,分析结果。两个阶段之间形成了动态的反馈循环,使得系统能够根据中间结果不断优化评价策略。

在提案阶段,计划代理承担着类似项目经理的角色。它需要理解用户的真实需求,制定合理的评价策略,并在每轮测试后分析结果,决定是否需要进一步探索。这个过程中,系统会记录自己的"思考过程",解释每个决策的理由。提示生成代理则更像创意总监,专门负责为每个评价环节设计合适的测试内容。它会根据计划代理提出的评价重点,创造出既能有效测试模型能力又符合评价目标的提示词。

在执行阶段,系统会调用目标生成模型创建测试内容,然后使用专业的评价工具进行分析。这个过程就像科学实验的数据收集阶段,需要确保测试的准确性和可靠性。系统集成了多种主流的评价工具,可以根据不同的评价需求选择最合适的工具。

特别值得注意的是,系统采用了开放式的架构设计。这意味着它可以轻松整合新的评价工具和支持新的生成模型,具有很强的可扩展性。当有新的评价方法出现时,只需要将相应的工具集成到系统中即可。当有新的生成模型需要评价时,系统也能够自动适配。

系统还引入了多重安全保障机制来防止评价过程出现问题。比如,它会设置最大评价轮数限制,防止系统陷入无限循环。它还会要求计划代理在结束评价时提供充分的理由,确保评价结论是基于充分证据而非随意决定。

六、实验数据揭示的深层洞察

通过大量实验,研究团队不仅验证了评价代理系统的有效性,还获得了许多关于视觉生成模型评价的深层洞察。这些发现对于理解如何更好地评价人工智能系统具有重要价值。

在效率对比实验中,数据显示评价代理系统的时间优势是压倒性的。以VideoCrafter-2模型为例,传统VBench评价需要生成4355个样本,耗时超过70小时,而评价代理系统只需要23个样本,用时24分钟。这相当于将评价时间压缩到原来的0.6%,效率提升了160多倍。

更令人印象深刻的是,这种巨大的效率提升并没有以牺牲准确性为代价。在大多数评价维度上,系统的判断都能与传统方法保持高度一致。特别是在一些关键的评价维度上,比如美学质量、时间一致性等,系统的准确率经常能达到90%以上。

实验还揭示了不同类型评价维度的特点。研究团队发现,基于感知和美学的评价维度(如美学质量、风格一致性)更适合用少量样本进行评价,因为这些方面的好坏往往在几个典型样本中就能体现出来。而基于统计的评价维度(如物体识别准确率、动作检测率)则需要相对更多的样本才能得到可靠的结果,因为这些维度的评价需要更多的统计数据支撑。

在开放式问题评价实验中,研究团队发现了用户需求的多样性。67.44%的参与者更关心模型是否能满足他们的特定需求,而不是模型的整体性能分数。这个发现强调了个性化评价的重要性,也验证了评价代理系统的设计理念。

不同大语言模型作为系统核心的对比实验也很有启发性。GPT-4o表现最佳,能够进行准确的策略规划和合理的工具选择。Claude表现次之,在大多数情况下也能提供可靠的评价结果。而Gemini虽然具有强大的理论能力,但在实际使用中经常出现工具选择错误和策略循环问题,说明评价代理任务对模型的规划和推理能力要求很高。

系统在处理复杂评价场景时展现出的适应性也值得关注。当面对抽象或非常规的评价要求时,系统能够创造性地设计测试方案,探索模型在边界情况下的表现。比如,当评价模型生成"倒立生长的树"这种超现实场景的能力时,系统不仅会测试模型是否能生成相应图像,还会深入分析图像的合理性和艺术性。

七、广泛应用前景和实际意义

评价代理系统的应用前景非常广阔,它不仅能够革命性地改变视觉生成模型的评价方式,还能为相关领域带来深远影响。这个系统就像一把万能钥匙,能够打开许多之前难以解决的问题之门。

在模型开发和优化方面,这个系统可以为研究人员提供前所未有的洞察。传统的评价方法只能告诉开发者模型在某个维度的得分,但无法解释得分的原因或提供改进建议。评价代理系统则能够深入分析模型的具体表现,指出问题所在,甚至提供优化方向建议。这就像从模糊的体检报告升级到了详细的专家诊断,不仅告诉你哪里有问题,还解释问题的成因和解决方案。

对于企业用户来说,这个系统能够帮助他们更好地选择合适的模型。不同的应用场景对模型的要求是不同的,广告制作需要的是创意和视觉冲击力,而教育内容制作更注重准确性和清晰度。评价代理系统能够根据用户的具体需求进行针对性评价,帮助用户找到最适合的模型。

在内容创作行业,这个系统可以成为创作者的得力助手。创作者可以通过系统了解不同模型在特定风格或主题方面的表现,选择最适合当前项目的工具。比如,一个专门制作科幻题材内容的创作者可以让系统评价各个模型在生成未来科技元素方面的能力,从而做出最佳选择。

教育领域也能从这个系统中受益。在人工智能和计算机视觉的教学中,评价代理系统可以帮助学生更好地理解不同模型的特点和适用场景。通过观察系统的评价过程,学生可以学习到如何进行科学的模型评价,培养批判性思维能力。

更进一步,这个系统的设计理念还可以推广到其他人工智能系统的评价中。无论是自然语言处理模型、推荐系统,还是决策支持系统,都可以借鉴这种动态、个性化的评价方法。这种方法的核心思想是从用户需求出发,进行有针对性的深度评价,而不是机械地套用标准化测试。

从更宏观的角度来看,这项研究也为人工智能系统的可解释性研究提供了新的思路。传统的AI系统往往被批评为"黑盒子",用户无法理解系统的决策过程。评价代理系统通过记录和解释自己的"思考过程",展示了如何让AI系统变得更加透明和可理解。

八、技术挑战和局限性

尽管评价代理系统取得了显著成功,但研究团队也诚实地指出了当前系统存在的挑战和局限性。这些局限性的存在并不影响系统的价值,反而为未来的改进指明了方向。

系统的性能很大程度上依赖于两个关键因素:评价工具包的质量和大语言模型的能力。在评价工具包方面,虽然系统可以集成现有的各种评价工具,但这些工具本身的准确性和完整性直接影响最终的评价结果。有些工具可能在某些特定场景下表现不佳,或者无法覆盖某些新兴的评价需求。这就像一个诊断系统,再智能的分析逻辑也无法弥补检测设备本身的局限性。

在大语言模型方面,虽然GPT-4o等先进模型在大多数情况下表现出色,但它们偶尔也会出现一些问题。比如,在数值比较或格式化输出方面可能会有不一致的表现。有时候模型可能会做出不够合理的策略选择,或者陷入重复的思维模式。研究团队通过实验发现,Gemini模型在工具选择和循环控制方面的问题比较明显,这提醒我们不是所有的大语言模型都适合承担这种复杂的规划任务。

系统在处理一些基于统计的评价维度时也面临挑战。这些维度通常需要大量样本才能得到可靠的统计结果,而评价代理系统的核心优势恰恰是用少量样本进行评价。虽然研究团队发现增加样本数量可以改善这方面的表现,但这在一定程度上会影响系统的效率优势。这需要在效率和准确性之间找到合适的平衡点。

另一个需要考虑的问题是系统的可靠性和稳定性。由于系统采用了动态的评价策略,不同次评价可能会采用不同的路径,这可能导致结果的一定程度变异。虽然这种变异在大多数情况下是合理的(因为反映了评价过程的灵活性),但在某些需要高度一致性的应用场景中可能会成为问题。

评价工具的覆盖范围也是一个挑战。虽然系统支持开放式查询,但实际的评价能力仍然受到可用工具的限制。对于一些非常具体或新颖的评价需求,系统可能缺乏相应的工具支持。这就像一个万能工具箱,虽然包含了很多工具,但总有一些特殊任务需要专门的工具。

安全性和滥用风险也需要考虑。由于系统可以根据用户要求生成各种测试内容,存在被用于不当目的的可能性。研究团队强调,在实际部署时需要建立适当的安全机制,防止系统被用于生成有害或不当内容。

九、未来发展方向和改进空间

尽管存在一些挑战,评价代理系统的未来发展前景仍然非常光明。研究团队已经指出了几个重要的改进方向,这些方向不仅能够解决现有的局限性,还能进一步扩展系统的能力和应用范围。

在评价工具包的改进方面,未来的发展重点是建立更加全面和准确的评价工具生态系统。这包括开发更多专门化的评价工具,提高现有工具的准确性,以及建立工具质量的评估机制。特别是在视觉质量评价方面,需要开发更多能够模拟人类感知的评价工具,使得系统的评价结果更加符合人类的直觉判断。

大语言模型能力的提升是另一个重要方向。随着更强大的模型(如OpenAI的o1系列)的出现,系统的规划和推理能力有望得到显著改善。这些新模型在数值处理、逻辑推理和策略规划方面的改进,将直接提升评价代理系统的性能。同时,研究团队也在探索如何更好地利用模型的能力,比如通过改进提示设计和交互流程来减少模型出错的可能性。

系统的可扩展性和模块化程度还有很大的改进空间。未来的系统可能会支持更多类型的生成模型(比如3D模型生成、音频生成等),并且能够进行跨模态的综合评价。这种扩展不仅能够拓宽系统的应用范围,还能为复合型AI系统的评价提供新的解决方案。

在用户体验方面,系统也有很多改进的可能性。比如,可以开发更加友好的用户界面,让普通用户也能轻松使用系统进行模型评价。还可以引入可视化的评价报告,通过图表和图像让用户更直观地理解评价结果。

自动化和智能化程度的提升也是重要方向。未来的系统可能不仅能够回答用户的具体问题,还能主动发现模型的潜在问题,提供改进建议,甚至预测模型在特定应用场景下的表现。这种主动式的评价能力将使系统从被动的评价工具演化为主动的AI助手。

产业化应用的探索同样重要。研究团队正在考虑如何将这个系统转化为实用的商业产品,为AI开发者、内容创作者和企业用户提供专业的模型评价服务。这不仅能够推动技术的实际应用,还能在实际使用中发现和解决更多问题。

最后,这项研究的方法论也可能被推广到其他领域。人工智能系统的评价是一个普遍存在的挑战,不仅限于视觉生成模型。这种基于智能代理的动态评价方法可能为语言模型、推荐系统、决策支持系统等其他类型的AI系统评价提供新的思路。

说到底,评价代理系统代表了人工智能评价方法的一个重要转折点。它从根本上改变了我们思考AI系统评价的方式,从机械化的标准测试转向了智能化的个性评价。这种转变不仅提高了评价的效率和准确性,更重要的是,它使得AI系统的评价变得更加人性化和实用化。

随着人工智能技术的快速发展,我们需要的不是更多的标准化测试,而是更智能的评价工具。评价代理系统正是朝着这个方向迈出的重要一步。它告诉我们,最好的评价方法不是固定不变的规则,而是能够灵活适应、深入思考的智能系统。

对于普通用户来说,这意味着他们将能够更好地理解和选择AI工具。对于开发者来说,这意味着他们能够获得更有价值的反馈来改进自己的系统。对于整个AI行业来说,这意味着我们正在建立一个更加成熟和科学的技术评价体系。这项研究不仅解决了一个具体的技术问题,更为我们思考AI系统的评价和改进开辟了新的道路。有兴趣深入了解的读者可以通过论文编号arXiv:2412.09645v3查询完整论文。

Q&A

Q1:评价代理系统是如何工作的?

A:评价代理系统像一位经验丰富的艺术评论家,它会根据用户的具体要求,仅通过观察少量样本就做出准确评价。系统包含策划和执行两个部分:策划部分负责分析用户需求和制定评价策略,执行部分负责具体测试和分析。整个过程是动态循环的,会根据中间结果不断调整评价重点。

Q2:评价代理系统比传统方法有什么优势?

A:评价代理系统将评价时间压缩到传统方法的十分之一,效率提升超过160倍。更重要的是,它不仅给出评价结果,还会详细解释评价理由,可以根据用户的个性化需求进行灵活评价,而不是机械地按照固定标准打分。

Q3:普通用户能使用评价代理系统吗?

A:目前评价代理系统主要面向研究人员和专业用户,但研究团队正在考虑开发更友好的用户界面,让普通用户也能轻松使用。系统支持自然语言查询,用户可以直接用日常语言提出评价要求,比如询问某个AI模型是否适合制作特定风格的内容。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-