动画片《辛普森一家》在“辛普森即兴表演”( Simprovised)一集中进行了首次动画直播,这一集于周日在美国播出。
早在1997 年,在《辛普森一家》“The Itchy & Scratchy & Poochie Show”这一集中,动画主角荷马·辛普森和动画世界进行了一次亲密接触,为动画小狗 Poochie 配音。当时荷马问这一集是否是现场直播,一名资深配音演员冷淡地回答:“动画没办法现场直播,动画师的手没有那么快。”
现在快 20 年后,他的预言性问题变成了现实,“辛普森”团队利用 Adobe Character Animator 播出了该电视节目的第一个动画直播片断:在自己的配音演员 Dan Castellaneta 的帮助下,荷马进行了三分钟的即兴表演,分享了他对当前事件的看法,并对粉丝提出的问题进行现场解答。
“辛普森即兴表演”为《辛普森一家》、及其大批粉丝,以及电视动画直播带来了新突破。
Castellaneta 能够进行即兴直播,要归功于 Adobe Character Animator(Creative Cloud 的组件 After Effects CC 的一项新功能)。该功能通过音唇同步技术和键盘触发动画魔术般地实现了这一场景。福克斯和《辛普森一家》的优秀团队提前获得了当时尚未发布的 Character Animator版本。Character Animation第一次正式发布是在全美广播电视设备展(NAB)上。
Adobe 高级战略开发经理(senior strategic development manager at Adobe) Van Bedient 表示:“《辛普森一家》不惧风险,在娱乐未来发展和可能性方面不断突破界限。在我们看来,没有什么比在广受欢迎的节目中进行动画直播更能展示新的技术突破。“
通过Adobe Character Animator, 设计师能让 2D 角色变得鲜活灵动。专业动画师或任何设计师可以借助 Photoshop CC 或 Illustrator CC,打造层次感分明的角色,并将其放入 Character Animator 画面中,然后在镜头面前将角色的动作表演出来。即使微妙的面部表情也能进行即时展现,再加上对话录音和通过按键触发的其它动作,效果栩栩如生。当角色之间进行互动,或人们与自己喜爱的角色直接互动时,所有这一切结合起来打造出的动画,便可拥有各种现实、实时元素。你微笑,你的角色也会对着你微笑。
Adobe 公司产品管理 DVA 高级总监( senior director of product management DVA for Adobe )Bill Roberts 表示:“人们通常不会把动画与速度和简单联系起来。传统动画需要花费大量的时间才能够做好。传达感情和动作并不容易,如果设计速度过快,就有可能损失其中各种重要细节。Character Animator 彻底改变了这种传统做法。”
好文章,需要你的鼓励
清华大学等多家机构研究团队完成了语音分离技术的全面调研,系统梳理了从传统方法到深度学习的技术演进。研究揭示了"鸡尾酒会问题"的核心挑战,分析了各种学习范式和网络架构的优劣,并通过统一实验框架提供了公平的性能基准。调研涵盖了实时处理、轻量化设计、多模态融合等关键技术方向,为学术界和产业界的技术选型提供了重要参考,推动语音分离从实验室走向实际应用。
浙江大学和腾讯微信视觉团队发现AI图片生成训练中"时机胜过强度"的重要规律,开发出TempFlow-GRPO新方法。通过轨迹分支技术精确评估中间步骤,结合噪声感知权重调整优化不同阶段的学习强度,将训练效率提升三倍,在复杂场景理解方面准确率从63%提升至97%,为AI训练方法论带来重要突破。
谷歌DeepMind发布突破性AI规划技术,让机器人学会像人类一样进行"情境学习"规划。该技术通过Transformer架构实现了快速适应新问题的能力,在迷宫导航、机器人控制等测试中表现优异,为自动驾驶、智能制造、医疗等领域应用奠定基础,标志着向通用人工智能迈出重要一步。
新南威尔士大学研究团队开发了ZARA系统,这是首个零样本运动识别框架,能够在未经专门训练的情况下识别全新的人类活动。该系统集成了自动构建的知识库、多传感器检索机制和分层智能体推理,不仅实现了比现有最强基线高2.53倍的识别准确率,还提供清晰的自然语言解释,为可穿戴设备和健康监护等应用领域带来了突破性进展。