动画片《辛普森一家》在“辛普森即兴表演”( Simprovised)一集中进行了首次动画直播,这一集于周日在美国播出。
早在1997 年,在《辛普森一家》“The Itchy & Scratchy & Poochie Show”这一集中,动画主角荷马·辛普森和动画世界进行了一次亲密接触,为动画小狗 Poochie 配音。当时荷马问这一集是否是现场直播,一名资深配音演员冷淡地回答:“动画没办法现场直播,动画师的手没有那么快。”
现在快 20 年后,他的预言性问题变成了现实,“辛普森”团队利用 Adobe Character Animator 播出了该电视节目的第一个动画直播片断:在自己的配音演员 Dan Castellaneta 的帮助下,荷马进行了三分钟的即兴表演,分享了他对当前事件的看法,并对粉丝提出的问题进行现场解答。
“辛普森即兴表演”为《辛普森一家》、及其大批粉丝,以及电视动画直播带来了新突破。
Castellaneta 能够进行即兴直播,要归功于 Adobe Character Animator(Creative Cloud 的组件 After Effects CC 的一项新功能)。该功能通过音唇同步技术和键盘触发动画魔术般地实现了这一场景。福克斯和《辛普森一家》的优秀团队提前获得了当时尚未发布的 Character Animator版本。Character Animation第一次正式发布是在全美广播电视设备展(NAB)上。
Adobe 高级战略开发经理(senior strategic development manager at Adobe) Van Bedient 表示:“《辛普森一家》不惧风险,在娱乐未来发展和可能性方面不断突破界限。在我们看来,没有什么比在广受欢迎的节目中进行动画直播更能展示新的技术突破。“
通过Adobe Character Animator, 设计师能让 2D 角色变得鲜活灵动。专业动画师或任何设计师可以借助 Photoshop CC 或 Illustrator CC,打造层次感分明的角色,并将其放入 Character Animator 画面中,然后在镜头面前将角色的动作表演出来。即使微妙的面部表情也能进行即时展现,再加上对话录音和通过按键触发的其它动作,效果栩栩如生。当角色之间进行互动,或人们与自己喜爱的角色直接互动时,所有这一切结合起来打造出的动画,便可拥有各种现实、实时元素。你微笑,你的角色也会对着你微笑。
Adobe 公司产品管理 DVA 高级总监( senior director of product management DVA for Adobe )Bill Roberts 表示:“人们通常不会把动画与速度和简单联系起来。传统动画需要花费大量的时间才能够做好。传达感情和动作并不容易,如果设计速度过快,就有可能损失其中各种重要细节。Character Animator 彻底改变了这种传统做法。”
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。