
Ryff是一家位于洛杉矶的初创企业,他们开发出一套系统,可使用计算机视觉、人工智能与机器学习技术实现对电影、电视、体育及YouTube用户生成内容进行语义理解。
Ryff的这套全新Placer平台能够提取大量现成内容,进而建立一种新的广告资源。随着干扰性商业广告价值的持续下降,集成营销(也被称为片内产品展示位营销)的价值则有所提升。当然,这种方法仍成本高昂而且需要随时跟上产品本身的变化——以因本轮新冠疫情流行而被迫延期的最新一部007电影为例,为了让产品能够与当下形势相适应,制作团队不得不投入巨资重拍大量镜头。
使用“同类整合”方法,RYff能够分析数十万小时的内容。Placer平台可以转录对话单元、创建场景元数据、检测说了些什么、由谁在说以及当前画面如何拍摄而来。以此为基础,它会自动生成虚拟展位机会(VPO)并交付给内容所有者及相关品牌,供他们核准其中最适合品牌宣传需求的场景。最后,Ryff能够将任意品牌或产品以数字方式大规模插入拍摄的内容当中。通过Ryff的技术,广告宣传活动将始终与时俱进,保证内容在文化与背景方面的良好相关性。
▲ Roy Taylor, Ryff公司创始人兼CEO
Ryff公司创始人兼CEO Roy Taylor于1998年在欧洲建立起英伟达,又于2016年在好莱坞成立了AMD Studios。凭借他在计算机视觉与娱乐业务的深刻理解,他于2018年创立了Ryff。此后,Ryff筹集到840万美元资金,投资方包括来自芝加哥的Valor VC、已故Paul Allen管理的Vulcan Ventures、Mac[sic] Ventrues以及来自萨克拉门多的Moneta VC。
▲ 同一场景、同样的驾驶员、不同的车辆
公司CTO Susan Hewitt于2018年8月正式加入。作为一位曾经的半导体工程师,她曾先后效力于德州仪器、ATI、ARM以及AMD公司,并在这里遇到了Taylor。Hewitt告诉我们,在大型企业工作多年之后,这份创业岗位给她的生活带来重大改变。
“对于一家初创企业,最令人兴奋的就是我们像一张白纸,当下的工作内容也不受制于任何原有计划。我们只是一路摸索前行,这实在让人斗志满满。”Hewitt目前居住在英国剑桥地区,这片人才聚集的土地很快吸引到了微软、苹果、Amazon等顶尖科技巨头的关注。剑桥大学以及剑桥小镇则逐步成长为独特的新兴技术孵化器。Hewitt解释道,“这里很小,但却像是一个焦点,有着比超大型城市更强烈的吸引力。这里充斥着各种学习与成长的机会。”
Moor Insights and Strategy公司高级分析师Anshel Sag认为,Ryff公司掌握着“在现有市场之间开辟新蓝海的巨大机会空间。其方案将给流媒体世界带来重大助力,内容所有者可以随时向库内无缝添加新内容。这代表着一种重要的全新收入机会,媒体领域的不少从业企业也正好迫切需要这种技术。”
最新一部007电影《无暇赴死》原定于2020年上映,但由于新冠疫情的爆发而被迫推迟。Tech Radar此前报道称,制造方正在重新拍摄一系列关键场景,“希望尽可能调整其中某些与时间相关的元素与内容。”根据相关传闻,包括诺基亚、欧米茄手表、阿迪达斯以及堡林爵香槟在内的各赞助商,都不希望在影片中展示一年前的旧产品。而使用Ryff的技术,制作方可能节约下数百万美元。
事实上,Ryff的方案足以将以往每一部007电影中的小物件都替换为较新的对象。如果愿意,诺基亚、欧米茄、阿迪达斯乃至堡林爵甚至可以将自己的最新产品出现在1962年的《诺博士》当中。
Taylor总结道,“传统的影片内嵌广告涉及付款、摆位拍摄以及内容发布等多个步骤,整个流程可能耗时数月甚至数年,既麻烦又效率低下。Ryff带来的对象替换技术也许类似于Amazon之于图书以及iTunes之于音乐,预示着广告行业也将迎来新一波重大革命。”
好文章,需要你的鼓励
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。
英国国王学院研究团队开发了潜在精炼解码(LRD)技术,解决了AI文本生成中的速度与准确性平衡难题。该方法通过两阶段设计模仿人类思考过程:先让AI在连续空间中"深思熟虑",保持多种可能性的混合状态,然后"果断行动",逐步确定答案。实验显示,LRD在编程和数学推理任务中准确性提升最高6.3个百分点,生成速度提升最高10.6倍,为AI并行文本生成开辟了新路径。
清华大学团队开发的ViSurf是一种创新的大型视觉语言模型训练方法,巧妙融合了督导式学习和强化学习的优势。该方法通过将标准答案整合到强化学习过程中,让AI既能从正确答案中学习又能保持自主推理能力。实验显示ViSurf在多个视觉任务上显著超越传统方法,特别是在处理模型知识盲区时表现突出,同时有效避免了灾难性遗忘问题,为AI训练提供了更高效稳定的新范式。