
Facebook的未来来说,仍然是至关重要的。

Facebook最近收购了Scape Technologies,一家专注于构建有助于AR(增强现实)的计算机视觉应用公司。
Scape成立于2016年,将自己的技术称为视觉定位服务(可通过SDK获得)。Scape实际上是利用摄像头提高GPS精度,这项技术对于Facebook VR头戴设备甚至是机器人技术来说都是有帮助的。
Loomly首席执行官兼联合创始人Thibaud Clement表示:“虽然GPS可以鸟瞰某个区域,但Scape Technologies的VPS实际上更接近行人的视野。这个独特的计算机视觉引擎,再加上Facebook的影响力,将有助于推动在AR和VR领域的发展。”
接下来,Facebook收购了Atlas ML开发商Deeptide。Deeptide成立于2018年7月,是一家科学论文和开源资源库公司。
Clement表示:“与Facebook AI合作意味着该平台将能够更快地发展,支持更多语言并吸引更多用户,同时让Facebook可以随时掌握该领域中发生的一切。这是网络协同效应一个很好的例子。”
Deeptide联合创始人Robert Stojnic在Medium帖子中写道:“Papers with Code仍然是中立的、开放的、免费的。这项服务的运行方式、社区与网站的互动方式,都将保持不变。”
Scape和Deeptide都位于英国。Sorenson Ventures负责人Vidya Raman说:“一段时间以来,英国一直是开创性AI研究的温床。还记得DeepMind吗,谷歌为DeepMind投入了多少钱?”
实际上早在2018年的时候,Facebook就收购了另一家英国公司Bloomsbury AI。这家初创公司构建了用于问答应用的NLP自然语言处理系统。
SAS首席解决方案架构师Tom Sabo表示:“任何希望更好地将内容与用户利益挂钩的企业组织,都将从投资领先的自然语言处理能力中受益。想想你是如何在互联网上搜索某个度假胜地或者汽车品牌,你当时搜索过的商品,是如何显示在接下来几周浏览的页面广告中的。这并不复杂。基于AI的精准数字广告策略,根据搜索、内容、位置数据中识别出来的用户兴趣,为用户提供了更有针对性的广告体验。”
>>>现在呢?
Facebook的一系列收购表明,人才之争正在升级。
RexMundi创始人Vincent Peters表示:“Elon Musk正在招募机器学习人才加入Tesla。Facebook收购Scape Technologies和Deeptide都是为了机器学习人才的,为了让机器可以从视觉上识别周围环境,直接获得那些经常使用机器学习资源的AI和ML人才。很少有企业拥有充足的、有能力理解不同类型人工智能、知道如何有效运用机器学习的人才。”
所以并购看起来是个不错的选择。毕竟,Facebook在很多领域都可以增强自己的AI实力。
“Facebook曾在F8 2019大会主题演讲中明确指出,他们前所未有的运营规模意味着必须解决前所未有的技术挑战,不仅要利用现有技术,还要突破技术现有的能力范畴。因此,我们可以想象,随着Facebook开始新的动作,全球面临前所未有的社交挑战,未来Facebook还需要填补这些空杯:要考虑付款欺诈检测、选举期间的信息真实性、在网速较慢的地区交付内容——所有这些都可以通过结合各种AI系统实现自动化和优化。”
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。