北京时间4月24日消息,距离第一个视频片段片段《我在动物园》上传到YouTube已经十年,这个如今已归属于谷歌公司的服务一直以来是在线视频共享领域的老大。但是,这样的主导地位能维持多久呢?
Facebook周三表示,与去年9月仅10亿的观看量及今年1月的30亿相比,其用户每天观看的视频数量已达40亿。
以上数据已经足够至少9家经纪公司在周四提高了Facebook的目标股价,尽管该公司第一季度的收入增长是两年来最慢的。
几乎所有的分析师都了解视频广告是Facebook利润增长最有前景的领域之一。
“根据视频和移动广告需求,互联网到了一个拐点,而FB(Facebook)也许是这个拐点唯一的最大受益者,” RBC Capital Markets分析师马克·马哈尼说。马哈尼将其对Facebook的目标股价提高了17美元,从88美元提至105美元。
周四早盘,Facebook报83.92美元,下跌了约1%。
在YouTube联合创始人贾韦德·卡里姆(Jawed Karim)在网站起步时上传《我在动物园》视频近七年之后,YouTube在2012年1月表示,其每天的访问量达到40亿。如今,谷歌一直没有披露YouTube的收视情况或利润数额。
经纪公司Cowen&Co估算,到今年年底,YouTube的日常访问或将达到79亿,并产生59亿美元的收入。该经纪公司预计,今年Facebook的视频广告收入将达到约10亿美元。
Facebook在2014年3月推出了自动播放的视频广告。
“在FB发展成首屈一指的数字/移动视频平台的过程中,其视频消费保持着爆发性增长,”考恩分析师在一份客户报告中写道,让Facebook的目标股价从91美元提高提高到了94美元。
今年第一季度,移动广告收入占Facebook广告总收入的73%,从去年同期的收入贡献为59%。
“在未来的移动市场营销方面,我们相信视频是会发挥重要作用,”Facebook首席运营官桑德伯格(Sheryl Sandberg)周三在分析师电话会议中说,“在Facebook全球的视频观看中,超过75%是发生在移动端。我们认为,随着时间推移,移动视频对市场营销人员来说会变得越来越重要。”
在截至3月31日的第一季度中,Facebook的营收增长42%,达35.4亿美元,归属于股东的净利润同比下降20%,为5.09亿美元。调整后的利润高于市场预期,但收入不及预期,其中广告收入增长46%至33.2亿美元。
“……尽管广告收入增长势头保持强劲,但该公司似乎只是停留在视频广告全面商业化的早期阶段,”巴克莱资本分析师表示。
分析师还是看到了丰富的机遇,即利用消息服务WhatsApp、分享照片应用Instagram和虚拟现实设备制造商Oculus Rift来增加收入渠道。Facebook正在大力投资于这些产品。
“Facebook的核心业务保持着增长,众所周知的催化剂也蓄势待发,还有随着Instagram发展到2016年,WhatsApp到2017年,Oculus到2018年带来的潜在增长,”证券公司Piper Jaffray的分析师写道。
截至周三收盘,Facebook股价在过去一年已经上涨了三分之一。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。