微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 01.AI发布Yi-Lightning:一个会思考的AI大脑如何击败众多对手登上全球第六

01.AI发布Yi-Lightning:一个会思考的AI大脑如何击败众多对手登上全球第六

2026-03-05 10:19
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2026-03-05 10:19 科技行者

这项由01.AI公司开展的前沿研究发表于2025年1月,论文编号为arXiv:2412.01253v5。对这一突破性成果感兴趣的读者可以通过该编号查阅完整的技术报告。

当我们谈论人工智能时,很多人可能会想到那些能回答问题、写文章的聊天机器人。但你知道吗?就在最近,一个名叫Yi-Lightning的AI模型悄然登场,并在全球最权威的AI竞技场——Chatbot Arena上取得了令人瞩目的第六名成绩。这个成就意味着什么呢?简单来说,就像一个新人选手刚刚加入奥运会,就立刻跻身世界前六强的水平。

Chatbot Arena就像是AI界的奥运会,来自世界各地的AI模型在这里接受真实用户的评判和比较。不同于传统考试只看标准答案,这里的评判更像是日常生活中的实际应用——用户会问各种真实的问题,然后根据AI的回答质量进行投票。在这样严苛的real-world测试中,Yi-Lightning不仅获得了总排名第六的好成绩,还在中文、数学、编程和复杂问题处理等专业领域表现出色,分别获得了第二到第四名的优异成绩。

这个成果的背后,是01.AI团队在模型架构、训练策略、数据工程和基础设施方面的全方位创新。他们就像建造一座精密的智能工厂,每个环节都经过了精心设计和优化。从模型的"大脑结构"设计,到"学习材料"的精心筛选,再到"教学方法"的反复改进,每一个细节都体现了对AI技术边界的不断突破。

更有趣的是,研究团队在对比传统学术测试和真实用户评价时发现了一个重要现象:Yi-Lightning在真实用户场景中的表现明显优于传统学术基准测试的结果。这就像一个学生在模拟考试中表现一般,但在实际工作中却表现出色。这个发现促使我们重新思考:什么样的评价标准才能真正衡量AI系统在实际应用中的价值?

一、智能大脑的精妙构造:像乐团指挥一样的专家混合架构

要理解Yi-Lightning的核心创新,我们可以把它想象成一个超级智能的交响乐团。在传统的AI模型中,就像是一个人试图同时演奏所有乐器,虽然能力强大,但效率并不高。而Yi-Lightning采用的混合专家架构(MoE)则更像是一个专业乐团:每个"专家"都像是精通特定乐器的演奏家,当需要处理不同类型的问题时,系统会智能地选择最合适的"专家"来处理。

这种设计的巧妙之处在于细粒度专家分割。研究团队发现,即使在专业的"演奏家"内部,也存在技能的不均衡使用。就像一个钢琴家虽然会弹奏各种曲目,但在演奏特定类型音乐时,只会用到部分技巧。因此,Yi-Lightning进一步将每个专家内部划分为更小的功能单元,这样就能更精准地激活所需的能力,大大提高了整体效率。

在专家路由策略方面,Yi-Lightning面临着一个类似交通调度的复杂问题。当大量信息需要处理时,如何确保每个专家的工作负载均衡,避免出现有些专家过度忙碌而有些专家闲置的情况?研究团队开发了一套精妙的负载均衡机制,就像智能交通信号灯一样,能够实时调整信息流向,确保整个系统的高效运转。

特别值得一提的是,传统的负载均衡方法往往过于严格,就像要求每辆车都必须等红绿灯一样长的时间。Yi-Lightning创新性地引入了分区负载均衡机制,将专家分组管理,在更灵活的范围内进行负载平衡。这种方法既保证了系统的稳定性,又提高了处理效率。

为了进一步优化长文本处理能力,Yi-Lightning还引入了两项关键的记忆优化技术。第一个创新是混合注意力机制:系统观察到,在处理长文本时,大部分注意力都集中在局部信息上,只有少部分需要关注全局信息。基于这个发现,他们设计了一种混合模式,将三个专门处理局部信息的"短视"模块与一个处理全局信息的"远视"模块相结合,就像人的视觉系统一样,既能看清细节,又能把握全局。

第二个创新是跨层KV缓存共享技术。这就像在图书馆中,不同楼层的读者可以共享同一套参考资料,而不必每层都存放完整的副本。通过这种设计,Yi-Lightning在处理长文本时的内存需求减少了高达82.8%,显著提升了处理效率。

二、海量知识的精心烹制:从原料到美食的数据炼金术

如果说模型架构是Yi-Lightning的"身体构造",那么训练数据就是它的"营养来源"。研究团队在数据处理方面的工作,就像一位顶级厨师精心选材和烹饪一样,每个环节都追求极致的品质。

在数据收集阶段,Yi-Lightning的"食谱"包含了多语言网页文档、书籍、学术论文、代码库和问答对等丰富的"食材"。但仅仅有原料还不够,关键在于如何处理这些原料。研究团队首先在分词技术上进行了优化,将词汇表扩展到100,352个词汇,这就像厨师准备了更多样的调料,能够更好地处理不同语言和文化背景的内容。

特别有趣的是,他们对数字信息的处理采用了一种独特的方法:将数字分解为单独的数位。这就像把复杂的菜谱分解为最基本的步骤,让模型能够更好地理解和处理数值信息。同时,他们还加入了unicode-byte编码作为备用机制,确保即使遇到罕见字符也能正确处理,就像准备了万能调料以应对意外情况。

在数学和编程内容的增强方面,研究团队采用了精准的"食材配比"策略。他们使用迭代分类方法从Common Crawl中筛选数学内容,同时从GitHub收集高质量的编程代码。为了避免数据污染,他们仔细过滤掉了与知名基准测试重叠的内容,就像厨师在烹饪前仔细挑选食材,确保没有变质或不适合的成分。

语义文档组织是另一个创新亮点。研究团队将语义相似的文档聚类并连接成长序列,然后切分为固定长度的片段用于训练。这种方法就像将相关的食材组合烹饪,能够产生更好的"化学反应",让模型更好地理解知识之间的内在联系。

在训练策略方面,Yi-Lightning采用了类似"慢炖精煮"的三阶段方法。初始预训练阶段就像文火慢煮,让模型充分吸收各种知识的精华。中期训练阶段则像调味增香,重点提升模型在复杂推理和多语言能力方面的表现。最后的快速衰减训练阶段就像最后的调味和装盘,通过精心调整使模型达到最佳状态。

长上下文扩展训练则像是为这道"智能大餐"增加了更丰富的层次。通过使用旋转位置编码技术,Yi-Lightning能够处理长达64K个token的文本,这相当于一次性阅读和理解约200页的书籍内容。训练过程系统性地使用了不同长度区间的序列,就像厨师需要掌握从简单小菜到复杂大餐的全套烹饪技艺。

三、智能导师的精心调教:从生搭到熟练的后训练工艺

如果预训练是让Yi-Lightning学会了基本的语言能力,那么后训练就是教会它如何像真正的助手一样与人类交流和合作。这个过程包括监督微调和人类反馈强化学习两个关键阶段,就像先让学生掌握基础知识,再通过实践练习提升应用能力。

监督微调阶段采用了巧妙的两阶段策略。第一阶段就像给学生安排数学和编程的专项训练,使用130万个精心设计的样本,重点提升在复杂任务上的基础能力。第二阶段则像全面的综合练习,使用30万个高质量的通用领域样本,提升指令跟随和问题解决的综合能力。

这种"小到大"的数据扩展策略特别值得关注。研究团队首先从1万个高质量的种子样本开始,就像种下优质的种子,然后通过系统性的扩展方法逐步增长到30万个样本。这个过程就像园丁精心培育植物一样,既保证了质量,又达到了规模。

在合成数据生成方面,Yi-Lightning展现了impressive的创新能力。对于一般任务,团队使用多种高级模型生成回答,结合自动化系统和人工验证进行质量控制。而对于编程和数学这样的复杂任务,他们集成了搜索算法,包括蒙特卡洛树搜索和深度优先搜索,配合专门的奖励模型来生成多样化的准确解答。这就像让AI既有创造力又有严格的逻辑验证能力。

在实现优化方面,研究团队解决了一个类似"拼图游戏"的技术难题。传统的样本打包方法虽然能提高训练效率,但可能会产生人工的多轮对话上下文,影响某些模型能力。他们开发了块因果注意力机制,通过掩码矩阵将不同样本隔离开来,就像给每个拼图块画上边界线,确保它们不会相互干扰。

人类反馈强化学习是Yi-Lightning获得优异实际表现的关键秘诀。这个过程就像培训一个优秀的服务员,不仅要掌握基本技能,还要学会察言观色,理解客户的真实需求和偏好。

在奖励建模方面,团队采用了两阶段方法。首先是偏好模型预训练,使用来自公共数据集的多样化偏好数据,但经过严格的质量筛选,就像选择最有经验的老师来做示范。然后是人类反馈微调,使用团队自己收集的高质量人工标注数据。

偏好数据的构建过程展现了精细的工艺水准。团队从多个维度对提示进行分类:复杂性级别、用户意图清晰度和领域类型。对于每个提示,他们生成多个不同温度设置的回答,然后使用奖励模型进行评估,选择得分最高和最低的回答组成偏好对,同时确保足够的奖励差距以减少建模误差的影响。

直接偏好优化训练采用了创新的离线和在线结合策略。离线阶段使用预构建的偏好数据集进行训练,就像学生先学习课本知识。在线阶段则使用最新模型实时生成的数据进行迭代训练,就像在实际工作中不断学习和改进。对于每个提示,系统会生成16个候选回答,然后使用奖励模型选择最佳和最差的回答进行训练,这个过程进行了两轮迭代。

为了提高训练效率,团队还开发了两个关键优化技术。首先是预计算参考模型的对数概率并缓存,避免在训练过程中重复加载参考模型,就像提前准备好所需的工具。其次是利用偏好对共享相同上下文的特点,先处理所有正样本再处理负样本,重复使用KV缓存,这对长文本样本特别有效,就像流水线作业一样提高效率。

四、超级计算工厂的高效运转:基础设施的精密协作

Yi-Lightning的卓越性能不仅来自于先进的算法设计,还得益于一套精密高效的基础设施系统。这套系统就像一座现代化的智能工厂,每个环节都经过精心优化,确保整个"生产流程"的高效运转。

在并行化优化方面,研究团队面临着一个类似管弦乐队协调的复杂挑战。由于Yi-Lightning采用混合专家架构,他们需要将专家并行和流水线并行有机结合。这就像指挥一个超大型管弦乐队,既要确保每个乐器组内部的协调,又要保证不同乐器组之间的完美配合。

团队进一步优化了流水线并行机制,包括定制化的流水线阶段分割和细粒度梯度重计算策略。这些改进就像重新设计生产线的工位分配和工艺流程,使得内存利用更加高效,工作负载分布更加均匀,同时保持了训练的稳定性并提升了整体吞吐量。

在长文本场景中,团队引入了几项针对性的改进来充分利用混合注意力机制和上下文并行的优势。他们重新设计了上下文并行的实现,使其能够与混合注意力机制高效集成,特别是在优化滑动窗口注意力计算在上下文并行维度上的分布方面。这种优化就像重新规划高速公路的车道分配,显著减少了单个并行rank的计算负担,实现了高达70%的训练加速。

在推理优化方面,Yi-Lightning采用了专门为大语言模型推理优化的高性能引擎。这套系统就像一台精密的高速生产机器,通过集成算法和工程优化,在减少资源消耗的同时提供卓越的推理效率。

引擎级的高级异步调度是一个重要创新。传统的大语言模型推理系统往往存在GPU利用率不高的问题,通常只能达到70%以下,这主要是由于模块间的串行依赖导致GPU空闲时间。Yi-Lightning实现了复杂的多模块、多进程异步调度机制,就像工厂里的智能调度系统,能够解耦任务执行并最小化模块间延迟。这种优化在高并发场景下实现了95%的GPU利用率,显著提升了引擎性能和硬件资源效率。

优化的FP8量化和硬件感知算子设计体现了深度的工程智慧。Yi-Lightning的架构从根本上考虑了GPU硬件特性,特别是FP8量化兼容性。模型架构精确对齐硬件规格,在保持算法精度的同时最大化硬件利用率。训练基础设施充分利用了Nvidia Hopper架构,通过定制开发的高性能算子实现了突破性的性能提升。

混合专家算子的实现是一个突出的例子。该算子采用专家并行策略,在Hopper GPU上以FP8精度实现了每张卡1200 TFLOPS的计算性能。这个性能指标比传统实现提升了超过100%,大幅提升了整体推理效率。

这些优化的综合效果就像一套完美协调的机械系统。通过异步调度提升硬件利用率和高效算子实现的双重作用,Yi-Lightning能够有效解决高并发、高吞吐量推理场景中的计算和内存约束,使其非常适合大规模AI服务部署。

五、可靠运行的坚实保障:99%稳定率背后的技术秘密

在大规模AI训练中,保持系统的高效稳定运行就像维护一座精密的钟表工厂,任何小的故障都可能导致巨大的时间和资源浪费。Yi-Lightning团队在这方面的创新实践达到了业界领先的99%以上稳定运行率。

他们采用了多层次的容错策略,结合主动和被动的故障发现机制。主动措施包括常规检测、入场测试和预检测试,就像定期对工厂设备进行保养检查,在问题影响生产之前就识别出潜在的硬件和软件问题。被动措施方面,XCloud集群部署了先进的监控工具,包括节点监控器和定制的InfiniBand指标收集器,能够实时检测故障。这套双重保障机制就像给工厂安装了既有预警系统又有应急响应系统的完整安全网,即使在频繁的硬件或网络故障面前也能最小化持续时间和影响,实现快速恢复并减少计算资源浪费。

基于内存的异步检查点技术是另一项关键创新。传统的检查点系统依赖分布式文件系统,往往会带来显著的开销,导致GPU在保存操作期间空闲,这就像工厂每次保存进度都要停产几分钟。XCloud的内存异步检查点技术将保存模型状态所需的时间从几分钟大幅缩短到仅3-5秒。这个创新不仅最小化了GPU空闲时间,还鼓励更频繁的检查点保存,减少了恢复时的计算浪费,对实现并维持99%以上的稳定运行率发挥了重要作用。

六、全方位安全防护体系:RAISE框架的四重保障

随着大语言模型能力的不断增强,确保其在各种复杂场景下的安全负责任运行变得尤为重要。Yi-Lightning团队开发了RAISE(负责任AI安全引擎)综合安全框架,这是一个贯穿模型整个生命周期的系统性安全解决方案,从开发到部署的每个环节都提供强有力的安全保障。

RAISE框架包含四个相互协作的核心组件,分别对应预训练、后训练和推理时的输入输出处理。通过精密的技术方法和协同集成,这些组件共同确保模型安全的同时维持最优的用户体验。

RAISE-1专注于预训练阶段的安全防护。在这个阶段,团队实施了安全模型来过滤预训练数据。他们基于Transformer和DNN架构开发了分类模型,并在高质量合规数据集上进行训练。这些模型构成了预训练语料库的评估和过滤流水线,就像在源头上设置了多道安全闸门,确保数据可靠性,最小化错误信息和偏见内容,防止隐私数据泄露,并增强模型的安全性和合规性。

RAISE-2负责后训练阶段的优化。在这个环节,团队实施微调策略来优化不同应用场景下的安全性能。他们的方法在SFT和RLHF阶段集成了评估和评分机制,使用奖励工程来鼓励安全回答并惩罚潜在的有害输出。额外的质量控制过程进一步确保适当的价值对齐,同时保持核心模型性能。

RAISE-3处理推理时的输入安全。对于推理时的输入处理,团队部署了安全评估机制来分析和过滤内容。系统能够识别潜在的有害内容,包括恶意、歧视性或仇恨元素,同时确保输入的安全性和合规性。这些机制在保持各种输入条件下的性能的同时,最小化了模型被恶意操控的风险。

RAISE-4实现输出安全控制。输出安全控制系统在关键维度上实施实时检测和优化:价值对齐、偏见检测、法律合规、准确性评估和内容适当性。该组件集成了安全机制来确保输出质量,同时保持效率,在安全要求和响应速度之间取得平衡。

通过这个框架,RAISE为负责任的AI开发和部署提供了坚实基础,确保Yi-Lightning在整个生命周期中的安全性,同时保持性能和用户满意度。这些组件之间的相互作用创造了一个安全生态系统,能够应对当前和新兴的挑战。

七、令人瞩目的实际表现:真实世界中的卓越成绩

Yi-Lightning的真正价值体现在其在现实应用中的卓越表现。在Chatbot Arena这个被誉为AI界"奥运会"的平台上,Yi-Lightning取得了令人印象深刻的成绩。这个平台的特殊之处在于它完全基于真实用户的比较和投票,而不是传统的标准化测试。

自2024年10月16日首次亮相以来,Yi-Lightning就展现了强大的实力,获得了总排名第6的优异成绩,Arena得分达到1287分,与排名第7的GPT-4o-0513(得分1285)平分秋色。更令人注目的是它在专业细分领域的表现:中文领域排名第2,多轮对话和数学推理均排名第3,编程、困难提示和长查询处理均排名第4。

这些成绩的意义远超数字本身。Chatbot Arena的排名来源于真实的人类比较和投票,有力证明了Yi-Lightning在满足用户需求和与人类偏好对齐方面的卓越能力。这种在真实应用中的优秀表现,正是Yi-Lightning设计理念的最好体现。

在学术基准测试方面,Yi-Lightning在多个代表性的公共学术基准上也表现出色。在GPQA通用知识测试中得分50.9,在MATH数学推理中达到76.4分,在HumanEval编程测试中获得83.5分,在IFEval指令跟随评估中取得81.9分。这些分数都达到了与顶级开源模型竞争的水平。

特别值得关注的是,团队还进行了大语言模型评判的评估,在WildBench上取得65.1分,在Arena-Hard上达到91.8分,在AlignBench-v1.1中获得7.54分,在MT-Bench上达到8.75分。这些成绩全面展现了Yi-Lightning在多个维度上的综合实力。

与顶级专有模型的比较中,Yi-Lightning也展现了强劲的竞争力。与GPT-4o-0513和Claude-3.5-Sonnet-20240620相比,Yi-Lightning在多个测试中都取得了可比拟甚至更好的成绩,这证明了开源模型完全有能力与最先进的商业模型竞争。

八、深刻的发现与思考:评估标准的重新审视

在Yi-Lightning的开发和评估过程中,研究团队发现了一个引人深思的现象:开源和专有模型在公共学术基准测试上的表现与它们在现实用户偏好中的表现存在显著差异。这个发现就像发现了传统考试分数和实际工作能力之间的鸿沟。

这种差异的根源在于开发理念的不同。Yi-Lightning团队在开发过程中更注重真实的人类评估体验,而不是过分关注学术基准分数。举个例子,在进行数学专项训练时,他们没有严格限制模型的输出格式,比如强制要求以"最终答案是\boxed{...}"结尾。他们认为,限制模型的输出内容或格式可能会损害其生成的多样性,从而潜在影响优化效果和用户体验。

这种发现促使我们重新思考一个根本问题:什么样的评估方法才能真正衡量AI系统的实际价值?传统的学术基准测试就像标准化考试,有其重要价值,但可能无法完全反映模型在复杂、动态的现实环境中的真实能力。而Chatbot Arena这样的真实用户评估平台,虽然可能不够标准化,但能够更好地反映AI系统在实际应用中的表现。

这个观察结果对整个AI研究领域都有重要启示。它提醒我们,在追求更智能、更强大的AI系统时,需要重新审视现有学术基准的作用,并探索能够更好评估模型在实际场景中表现的替代方法。只有这样,我们才能开发出真正符合用户需求、在现实世界中发挥最大价值的AI系统。

说到底,Yi-Lightning的成功不仅在于其技术创新,更在于它体现了一种以用户为中心的开发理念。在AI技术快速发展的今天,这种理念可能比任何单一的技术突破都更为重要。它提醒我们,最好的AI系统不一定是在所有测试中都得满分的系统,而是能够真正理解和满足人类需求的系统。

对于普通用户而言,Yi-Lightning的出现意味着我们有了一个既强大又实用的AI助手选择。无论是处理中文内容、解决数学问题、协助编程开发,还是应对各种复杂查询,Yi-Lightning都展现了令人信服的能力。而对于整个AI行业来说,Yi-Lightning的成功证明了开源模型完全有能力与最先进的商业系统竞争,这将促进整个行业的健康发展和技术进步。

未来,随着AI技术的持续演进,我们期待看到更多像Yi-Lightning这样既技术先进又真正实用的系统出现。这些系统将不仅仅是技术的展示,更是人类智慧与机器能力完美结合的体现,为我们的工作和生活带来更多便利和可能性。有兴趣了解更多技术细节的读者,可以通过arXiv:2412.01253v5查阅完整的研究论文。

Q&A

Q1:Yi-Lightning在Chatbot Arena上排名第六意味着什么?

A:这意味着Yi-Lightning在全球最权威的AI竞技场上跻身世界前六强。Chatbot Arena类似AI界的奥运会,完全基于真实用户的评判和比较,不是传统考试。Yi-Lightning获得总分1287分,与GPT-4o平分秋色,在中文、数学、编程等专业领域更是排名第2-4位,证明了它在实际应用中的卓越能力。

Q2:Yi-Lightning的混合专家架构有什么特别之处?

A:Yi-Lightning的混合专家架构就像一个专业交响乐团,每个"专家"精通特定技能,系统会智能选择最合适的专家处理不同问题。特别创新的是细粒度专家分割,将每个专家内部进一步划分为更小功能单元,配合精妙的负载均衡机制,确保高效运转。还有跨层KV缓存共享技术,使长文本处理的内存需求减少82.8%。

Q3:为什么Yi-Lightning在学术测试和真实用户评价中表现差异这么大?

A:这反映了开发理念的不同。Yi-Lightning团队更注重真实的人类评估体验,而不是过分追求学术基准分数。比如在数学训练中,他们不强制限制输出格式,认为这样能保持生成多样性和更好的用户体验。这种差异提醒我们需要重新思考什么样的评估标准才能真正衡量AI在实际应用中的价值。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-