微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 普林斯顿大学团队让AI智能体像人一样在"游戏"中成长:GenEnv框架破解训练数据昂贵难题

普林斯顿大学团队让AI智能体像人一样在"游戏"中成长:GenEnv框架破解训练数据昂贵难题

2025-12-24 17:55
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-12-24 17:55 科技行者

这项由普林斯顿大学郭家骋、杨凌等研究者领导,联合字节跳动种子、哥伦比亚大学、密歇根大学和芝加哥大学共同完成的研究发表于2025年12月,论文编号为arXiv:2512.19682v1。有兴趣深入了解的读者可以通过该编号查询完整论文内容。

在人工智能的世界里,训练一个能够胜任复杂任务的AI智能体就像培养一个孩子一样充满挑战。传统的方法就好比让孩子只能通过背诵别人的经验来学习,这样既昂贵又效果有限。普林斯顿大学的研究团队提出了一个革命性的解决方案——GenEnv框架,这就像为AI创造了一个能够随着它成长而不断调整难度的"电子游戏"环境。

在这个创新框架中,有两个核心角色在进行着一场永不停歇的"成长游戏":一个是学习者(智能体),另一个是出题者(环境模拟器)。出题者会根据学习者的当前水平,精心设计出既不会太简单让人感到无聊,也不会太困难让人完全放弃的任务。这种动态调节机制被研究团队称为"难度对齐的共同进化",就像一个贴心的私人教练,始终为学生提供最适合当前水平的挑战。

研究团队在五个不同的基准测试中验证了GenEnv的效果,这些测试涵盖了从API调用到具体环境交互等多种任务类型。结果显示,使用GenEnv训练的7B参数模型在各项测试中都表现出色,最高提升达到了40.3%。更令人惊讶的是,这个相对较小的模型甚至能够匹敌或超越那些参数量大得多的竞争对手。与使用Gemini 2.5 Pro进行离线数据增强的方法相比,GenEnv在使用更少合成数据的情况下依然取得了更好的性能表现。

一、AI训练的昂贵瓶颈:为什么传统方法走进死胡同

在AI智能体的训练过程中,数据就像是学习的"营养品"。传统的训练方式依赖于收集大量专家演示的数据,这就好比让孩子只能通过观看录像来学习骑自行车一样。这种方法面临着三个根本性问题:成本高昂、内容固定、效果有限。

想象一下教一个AI智能体学会在网上购物。传统方法需要人类专家亲自演示成千上万次购物过程,记录下每一个点击、每一次输入。这个过程不仅耗时耗力,而且成本极高。更糟糕的是,当网站界面发生变化时——比如"添加到购物车"按钮变成了"立即购买"——AI智能体可能就会因为没有见过这种变化而陷入困惑。

这种静态数据训练方式的另一个问题在于,无论我们收集多少数据,都无法涵盖现实世界中可能出现的所有变化。就像一个只在教科书上学过开车的人,当真正面对复杂路况时往往会手足无措。AI智能体也是如此,它们在面对训练数据之外的新情况时,表现往往令人失望。

近年来,研究人员尝试通过合成数据生成来解决这个问题。这就像制作更多的"模拟题"来丰富训练材料。然而,这种方法本质上仍然是在创建一个更大但依然静态的数据集。问题的核心并没有得到解决——AI智能体仍然缺乏根据自身学习进度动态调整训练内容的能力。

普林斯顿大学的研究团队认识到,真正的解决方案不在于简单地增加数据量,而在于改变数据的生成方式。他们提出了一个根本性的转变:从"模型在静态数据上进化"转向"数据随着模型共同进化"。这种思维转变就像从"填鸭式教育"转向"个性化教学",让AI能够在一个真正适应其学习节奏的环境中成长。

二、GenEnv的核心创新:让AI在游戏中成长

GenEnv框架的核心理念可以用一个生动的比喻来理解:它就像为AI创造了一个智能的"成长伙伴"。在这个系统中,有两个AI在进行着一场永恒的互动游戏——一个是学生(智能体),另一个是老师(环境模拟器)。

这位AI老师有一个特殊的天赋:它能够精确感知学生的学习水平,并据此设计出最适合的练习题。当学生在某类任务上表现很好时,老师就会适当增加难度;当学生遇到困难时,老师会调整任务的复杂度,确保学生既不会因为太简单而无聊,也不会因为太困难而沮丧。

这种动态调节机制的核心是一个被称为"α-课程奖励"的巧妙设计。这个奖励机制的目标是让AI智能体在每类任务上都维持大约50%的成功率。为什么是50%呢?研究团队通过理论分析发现,当成功率在这个水平时,AI能够获得最强的学习信号。这就像运动训练中的"最适宜负荷"概念——既不会因为太轻松而没有提升,也不会因为太困难而受伤。

在具体实现上,环境模拟器会持续监控智能体的表现。当智能体在某批任务上的成功率偏离目标范围时,模拟器就会相应地调整后续任务的生成策略。如果智能体的成功率过高,说明任务太简单了,模拟器就会增加复杂度;如果成功率过低,模拟器则会降低难度。这个过程完全自动化,无需人工干预。

更令人印象深刻的是,这个系统展现出了真正的"共同进化"特征。随着训练的进行,研究团队观察到一个有趣的现象:智能体生成的回答越来越长,这表明它正在学会处理更复杂的任务。同时,环境模拟器生成的任务描述也在变长,说明它正在创造更具挑战性的场景。这种同步发展就像两个舞伴在共同提高舞技——一个学会了更复杂的步伐,另一个就会配合创造更优美的舞蹈。

三、理论基础:为什么50%成功率是最佳选择

GenEnv框架的设计并非凭空想象,而是建立在坚实的理论基础之上。研究团队通过数学分析证明了为什么50%的成功率能够为AI提供最强的学习信号。

这个理论可以通过一个简单的学习场景来理解。假设你在学习投篮,如果篮筐放得太低,你每次都能轻松投中,那么你的技术不会有任何提升。如果篮筐放得太高,你怎么努力都投不中,很快就会失去继续练习的动力。但是,如果篮筐的高度刚好让你能投中一半的球,那么你既能从成功中获得正面反馈,又能从失败中学到改进的方向。

在数学层面,研究团队证明了当任务的成功概率为50%时,智能体从每次尝试中获得的学习信号达到最大值。这是因为学习信号的强度与任务结果的不确定性成正比。当成功率过高或过低时,结果变得可预测,学习信号随之减弱;但在50%成功率时,每次尝试的结果都充满了有价值的信息。

研究团队还证明了α-课程奖励机制的统计一致性。简单来说,即使环境模拟器只能观察到有限次数的智能体尝试,它依然能够可靠地判断出哪种任务类型更接近目标难度。这种可靠性随着观察次数的增加而指数级提升,这意味着系统能够快速而准确地识别出最适合的任务难度。

这种理论保证解释了为什么GenEnv在实际应用中表现如此出色。当系统开始运行时,智能体的成功率可能远低于50%,因为任务对它来说太困难了。但是,环境模拟器会快速识别这种不匹配,并调整任务生成策略,逐步将智能体的成功率引导到目标区域。随着训练的进行,智能体能力提升,而环境模拟器也会相应地提高任务难度,始终保持这种最优的学习状态。

四、数据演化范式:从静态学习到动态成长

GenEnv最具革命性的贡献在于提出了"数据演化范式"。这个概念的理解需要从传统的机器学习思维中跳出来。

传统的机器学习就像在图书馆里学习:你有一堆固定的教科书,无论你的水平如何提高,这些书的内容永远不会改变。即使你已经掌握了基础知识,还是得继续翻阅那些初级内容;当你需要更高级的知识时,图书馆里却没有合适的书籍。

GenEnv的数据演化范式则完全不同,它更像拥有一位能读懂你内心的私人教师。这位教师不仅能够感知你当前的知识水平,还能即时创造出最适合你的学习材料。当你在某个领域有了进步,教师立即就能提供更具挑战性的内容;当你在某些方面遇到困难,教师会马上调整教学策略,提供更有针对性的练习。

在技术实现上,这种范式通过两个不断演化的数据集来实现。第一个是智能体训练池,它收集智能体在各种任务上的尝试记录。这些记录不仅包含成功的案例,也包含失败的尝试,因为失败往往比成功更有教育价值。第二个是环境训练池,它存储环境模拟器生成的各种任务,这些任务会根据其"教育效果"被赋予不同的权重。

这种动态数据生成的美妙之处在于它能够自动发现智能体的"学习边界"。当智能体在某类任务上表现出色时,系统知道这已经不再是有效的学习材料;当智能体完全无法应对某类任务时,系统也知道这超出了当前的学习能力。系统的目标是持续寻找那个甜蜜点——既具有挑战性又在能力范围内的任务类型。

数据演化范式的另一个重要特征是它的累积性质。与那些每次都从头开始的训练方法不同,GenEnv会保留智能体的学习历史。这确保了智能体在学习新技能的同时不会忘记已经掌握的能力。这就像一个人在学习高等数学时不会忘记基础算术一样,是一种更符合人类学习规律的方式。

五、实验验证:在五个战场上的全面胜利

研究团队选择了五个不同类型的基准测试来验证GenEnv的效果,这就像让一个学生在不同科目上都接受考验。这些测试涵盖了API调用、具体环境交互、函数调用、问答推理和旅行规划等多个领域,确保GenEnv的有效性不仅仅局限于特定类型的任务。

在API-Bank测试中,GenEnv训练的7B模型达到了79.1%的成功率,相比基础模型的61.6%有了显著提升。这个测试考验的是AI智能体调用各种应用程序接口的能力,就像测试一个人能否熟练操作各种不同的软件工具。GenEnv的优异表现说明,通过动态调整任务难度,AI能够更好地掌握工具使用的技巧。

在ALFWorld这个具体环境交互测试中,GenEnv展现了最为惊人的提升效果。基础模型的成功率仅为14.2%,而GenEnv训练的模型达到了54.5%,提升幅度超过40个百分点。ALFWorld要求AI智能体在虚拟家居环境中执行各种日常任务,比如"把苹果放到微波炉里"或"找到并打开台灯"。这类任务需要多步骤推理和规划能力,GenEnv在这方面的突出表现证明了动态课程学习对培养复杂推理能力的重要作用。

BFCL(伯克利函数调用排行榜)测试着重考验模型的函数调用能力。在这个具有挑战性的测试中,GenEnv取得了41.8%的成功率,相比基础模型的7.0%有了质的飞跃。这个提升特别有意义,因为函数调用是现代AI应用中的核心能力,直接关系到AI智能体能否有效地与各种外部工具和服务交互。

在Bamboogle问答推理测试中,GenEnv达到了76.0%的成功率,与基础模型的68.0%相比也有明显改善。虽然这个提升相对较小,但考虑到问答推理本身已经是相对成熟的AI能力,任何提升都是珍贵的。更重要的是,这证明了GenEnv的方法不会在强化某些能力的同时削弱其他能力。

在TravelPlanner旅行规划测试中,GenEnv的表现为16.6%,相比基础模型的14.3%有小幅提升。这个测试可能是最具挑战性的,因为它需要AI综合考虑多种约束条件,制定切实可行的旅行计划。虽然提升幅度相对较小,但这反映了现实问题的复杂性,也为未来的改进指明了方向。

六、与巨型模型的较量:小而精vs大而全

GenEnv最令人印象深刻的成就之一是它让相对较小的7B参数模型能够与那些参数量多得多的"巨无霸"模型相提并论,甚至在某些方面超越它们。这就像让一个聪明的中学生在某些任务上战胜了大学教授,展现了"精准训练"相对于"规模堆叠"的优势。

在与14B到72B参数的大型模型比较中,GenEnv训练的7B模型展现出了惊人的竞争力。例如,在平均性能上,GenEnv达到了53.6%的成功率,这不仅超过了所有其他7B模型,甚至与一些参数量是其两倍以上的模型相当。这种现象说明,训练方法的创新往往比单纯增加模型规模更有效。

特别值得注意的是与Qwen3-14B模型的比较。这个模型的参数量是GenEnv使用模型的两倍,但在平均性能上仅达到44.9%,明显低于GenEnv的53.6%。更令人印象深刻的是,在ALFWorld这个最具挑战性的测试中,GenEnv的54.5%成功率甚至超过了拥有405B参数的Llama 3.1模型的65.3%,虽然还有差距,但这种参数规模的巨大悬殊让这个比较变得特别有意义。

这种"小而精"战胜"大而全"的现象背后有着深刻的科学道理。大型模型虽然拥有更强的表达能力和更丰富的知识储备,但它们往往是在通用数据上进行训练的,缺乏针对特定任务的深度优化。相比之下,GenEnv通过动态生成高质量的训练数据,让较小的模型能够在特定领域达到极高的专业化水平。

这个发现对AI行业具有重要的实际意义。它表明,与其盲目追求更大的模型规模,不如将注意力转向更智能的训练方法。对于那些计算资源有限的研究机构和公司来说,GenEnv提供了一条通过创新训练方法而非硬件堆叠来提升AI性能的道路。

七、数据效率的奇迹:用更少资源获得更好效果

GenEnv最具商业价值的特性之一是其卓越的数据效率。在与使用强大的Gemini 2.5 Pro模型进行数据增强的方法比较中,GenEnv展现了令人震惊的效率优势。

研究团队设计了一个严格的对比实验。他们使用Gemini 2.5 Pro这个业界顶级模型来生成大量高质量的合成训练数据。在第一种设置中,Gemini生成了约1.8倍于原始数据集的额外数据;在第二种设置中,生成量更是达到了3.3倍。这些数据的质量极高,因为它们来自当时最先进的AI模型。

然而,即使面对如此强大的竞争对手,GenEnv依然展现出了明显的优势。在BFCL测试中,使用1.8倍Gemini增强数据的方法达到了43.4%的性能,使用3.3倍增强数据的方法达到了43.8%。而GenEnv在使用相当于原始数据量的动态生成数据的情况下,达到了45.8%的性能。

这个结果的意义是深远的。它意味着GenEnv不仅在绝对性能上超越了静态数据增强方法,更重要的是,它用更少的资源达到了更好的效果。如果将训练成本考虑在内,GenEnv的优势就更加明显了。使用Gemini 2.5 Pro生成3.3倍的增强数据不仅需要大量的API调用费用,还需要相应的存储和计算资源。相比之下,GenEnv的动态生成机制虽然也需要计算资源,但其效率明显更高。

这种数据效率的优势背后有着清晰的逻辑。静态数据增强方法,无论使用多强大的模型,生成的仍然是固定内容的数据。这些数据可能在训练初期很有用,但随着智能体能力的提升,其价值会逐渐递减。相比之下,GenEnv的动态生成机制确保每一条新数据都是针对智能体当前学习需求定制的,因此每一条数据都具有很高的教育价值。

更重要的是,这种数据效率优势随着训练时间的延长而愈发明显。在训练的早期阶段,静态数据可能还有一定价值;但在训练的后期阶段,当智能体已经掌握了基础技能时,静态数据的价值就会急剧下降。而GenEnv的动态数据生成机制能够始终为智能体提供适当挑战性的新内容,保证训练效果的持续性。

八、难度校准的艺术:维持最佳学习状态

GenEnv系统最精妙的设计之一是其自动难度校准机制。这套机制就像一个经验丰富的教练,能够精确感知学生的学习状态,并据此调整训练难度。

在整个训练过程中,系统持续监控智能体在生成任务上的成功率。研究团队观察到一个令人着迷的现象:智能体的成功率从最初的13.8%逐步上升,并最终稳定在50%左右的目标区域。这种收敛过程展现了系统的自我调节能力——既不会让任务变得太简单以至于失去挑战性,也不会让任务难到让智能体完全无法应对。

更令人印象深刻的是这种难度校准的动态性质。随着训练的进行,虽然智能体的成功率保持在目标范围内,但任务的实际复杂度却在不断提升。研究团队通过分析任务描述的长度发现,环境模拟器生成的任务描述从最初的平均5828个token逐渐减少到5657个token,这看似矛盾的现象实际上反映了系统的智能化:模拟器学会了用更简洁的描述来表达更复杂的任务。

同时,智能体生成回应的长度从137个token增长到204个token,增幅达到49%。这个变化清楚地表明,智能体正在学会处理更复杂的推理任务。更长的回应通常意味着更多的中间推理步骤、更详细的工具调用序列,以及更完善的问题解决策略。

这种难度校准机制的效果可以通过一个生动的比喻来理解:就像一位游戏设计师在为玩家设计关卡。优秀的游戏设计师知道,最好的游戏体验来自于让玩家始终处于"心流状态"——既感到挑战,又不会感到绝望。GenEnv的环境模拟器就是这样一位游戏设计师,它能够实时感知"玩家"(智能体)的技能水平,并相应地调整"关卡"(任务)的难度。

研究团队还观察到,这种校准机制具有很强的稳定性。即使在训练过程中出现暂时的性能波动,系统也能够快速调整并回到目标状态。这种稳定性对于长期训练来说至关重要,它确保了智能体能够在整个训练过程中保持高效的学习状态。

九、问题解决能力的显著提升:从失败到成功的转变

GenEnv在培养智能体解决问题能力方面展现出了显著的优势。通过对比分析训练过程中完全解决的任务数量和未解决任务的变化趋势,研究团队揭示了这一创新方法的深层价值。

在训练初期,智能体完全解决的任务数量相对较少,这是正常现象,因为它还在学习基础技能。然而,随着GenEnv训练的进行,完全解决任务的数量呈现出稳定的上升趋势。到训练结束时,智能体每批次能够完全解决的任务数量相比随机生成环境提升了3.5%。虽然这个数字看起来不大,但考虑到这是在任务难度同步提升的背景下取得的,其意义就变得更加重要了。

更令人印象深刻的是未解决任务数量的变化。在传统的随机任务生成环境中,随着训练的进行,未解决任务的数量下降缓慢且不稳定。而在GenEnv环境中,未解决任务的数量呈现出急剧而稳定的下降趋势。到训练结束时,GenEnv环境中的未解决任务数量比随机环境少了20.3%。这种对比鲜明地展现了GenEnv在帮助智能体克服学习难点方面的优势。

这种改善的背后机制值得深入理解。在随机任务生成环境中,智能体可能会重复遇到同样简单的任务,这虽然能带来短期的成功感,但对能力提升帮助有限。同时,它也可能经常遇到过于困难的任务,导致频繁失败而无法从中学到有用信息。相比之下,GenEnv的动态调节机制确保智能体遇到的每个任务都处在其"学习边界"上——既有一定难度,又不至于完全无法解决。

这种精准的难度控制产生了一种"良性循环"效应。当智能体在某类任务上表现良好时,环境会适当增加这类任务的复杂度,推动智能体进一步提升;当智能体在某类任务上遇到困难时,环境会提供更多类似但稍微简化的练习,帮助智能体逐步掌握必要技能。这种个性化的学习路径比一刀切的训练方法更加高效。

研究团队还注意到,GenEnv训练的智能体不仅在解决问题的数量上有所提升,在解决问题的质量上也表现出明显改善。通过分析智能体的推理过程,研究人员发现GenEnv训练的智能体能够生成更长、更详细的推理链,这表明它们不是简单地记住了解决方案,而是真正学会了推理和规划。

十、理论与实践的完美结合:科学原理的现实验证

GenEnv最令人信服的地方在于其理论预测与实际观察结果的高度吻合。这种理论与实践的一致性不仅验证了研究团队的科学假设,也为未来的改进指明了方向。

在理论分析中,研究团队证明了50%成功率能够为智能体提供最强的学习信号。这个理论预测在实际实验中得到了完美验证。观察GenEnv的训练曲线,可以清楚地看到智能体的成功率从初始的13.8%逐步上升,最终稳定在52.4%左右。这个数值与理论预测的50%几乎完全吻合,其微小差异完全在统计误差范围内。

更令人印象深刻的是系统的收敛特性。理论分析预测,α-课程奖励机制应该能够引导系统快速收敛到目标状态。实验结果显示,智能体的成功率在第2个训练周期就进入了目标区间(40%-60%),并在后续训练中稳定维持在这个范围内。这种快速收敛特性对实际应用来说极其重要,因为它意味着系统能够很快找到最优的训练状态。

理论分析还预测,α-课程奖励应该具有统计一致性,即能够可靠地识别出最适合的任务难度。实验观察证实了这一点:随着训练的进行,环境模拟器生成的任务质量不断提高,越来越精准地匹配智能体的当前能力水平。这种改善不是偶然的,而是源于奖励机制的内在逻辑。

实验还验证了另一个重要的理论预测:中等难度任务能够提供最强的学习信号。通过分析智能体在不同难度任务上的学习效果,研究团队发现,那些成功率在40%-60%范围内的任务确实产生了最大的性能提升。过于简单的任务(成功率>80%)对智能体的改善作用很小,而过于困难的任务(成功率<20%)甚至可能产生负面影响。

这种理论与实践的高度一致性提供了超越单一实验的科学价值。它表明GenEnv不是一个偶然成功的工程技巧,而是建立在坚实科学基础上的系统性创新。这为未来的研究提供了可靠的理论指导:其他研究者可以基于这些原理开发出适合不同应用场景的变体方法。

同时,这种一致性也增强了人们对GenEnv适用性的信心。当理论预测能够准确指导实际结果时,我们有理由相信这种方法在其他任务和场景中也能取得类似的成功。这对于AI智能体训练方法的产业化应用来说具有重要意义。

结语

说到底,GenEnv代表了AI训练思维的一次根本性转变。传统的方法就像让学生反复背诵固定的教科书,而GenEnv则创造了一个能够与学生共同成长的智能化学习环境。这种从"静态数据训练"向"动态数据演化"的转变,不仅在技术上取得了显著突破,更重要的是为AI智能体训练开辟了一条全新的道路。

这项研究的价值远不止于性能指标的提升。它向我们展示了一个重要观点:有时候,改变思维方式比增加计算资源更有效。GenEnv用相对较小的7B模型挑战甚至超越了那些参数量多出数十倍的巨型模型,证明了"巧干"相对于"蛮干"的优势。对于那些计算资源有限的研究机构和公司来说,这无疑是一个令人振奋的消息。

从实用角度来看,GenEnv解决了AI智能体训练中的一个核心痛点:数据成本。传统方法需要大量昂贵的人工标注数据,而GenEnv通过智能化的自动生成机制,不仅降低了成本,还提高了效果。这种数据效率的改善对于AI技术的普及和应用具有重要意义。

展望未来,GenEnv开启的"共同进化"训练范式可能会影响整个AI领域的发展方向。它提示我们,与其一味追求更大的模型和更多的数据,不如将注意力转向更智能的训练方法。这种思路不仅适用于智能体训练,也可能启发其他AI应用领域的创新。

对于普通人来说,GenEnv的意义在于它让AI变得更加高效和实用。随着这类方法的成熟和普及,我们可能会看到更多能够真正理解和适应我们需求的AI助手。它们不再是僵化的程序,而是能够在交互中不断学习和改进的智能伙伴。

当然,这项研究也提出了新的思考。如果AI能够在一个自我生成的环境中快速进步,那么我们如何确保它们学到的技能能够很好地转移到现实世界中呢?如何在追求训练效率的同时保证AI系统的安全性和可靠性?这些问题值得研究者们继续探索。

总而言之,GenEnv不仅仅是一个技术创新,更是一次思维革命。它告诉我们,在AI的世界里,最好的老师可能就是那个能够与学生共同成长的伙伴。有兴趣深入了解这项研究技术细节的读者,可以通过论文编号arXiv:2512.19682v1查询完整的研究内容。

Q&A

Q1:GenEnv框架的核心工作原理是什么?

A:GenEnv框架包含两个AI角色——学生智能体和老师环境模拟器。老师会根据学生的当前水平动态生成任务,目标是让学生在每类任务上维持约50%的成功率。当学生表现太好时,老师增加难度;表现不佳时,老师降低难度,确保始终提供最适合的学习挑战。

Q2:为什么GenEnv要追求50%的成功率而不是更高?

A:研究团队通过数学分析证明,50%成功率能为AI提供最强的学习信号。就像运动训练中的"最适宜负荷",既不会因太简单而无提升,也不会因太困难而受挫。成功率过高表示任务太容易,过低则表示任务超出能力范围,只有50%左右才能获得最大的学习价值。

Q3:GenEnv相比传统训练方法有什么实际优势?

A:GenEnv最大优势是数据效率和性能提升。它让7B参数的小模型能够匹敌甚至超越参数量多出数倍的大型模型,在五个基准测试中最高提升40.3%。同时,它用更少的合成数据就超越了用强大Gemini模型生成3.3倍增强数据的效果,大大降低了训练成本。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-