北京时间2月5日消息,美国职业社交网站LinkedIn(NYSE:LNKD)今天发布了2015财年第四季度及全年财报。财报显示,LinkedIn第四季度营收为8.62亿美元,同比增长34%;基于美国通用会计准则(GAAP),净亏损为800万美元,去年同期为净利润300万美元,同比转亏。
——LinkedIn第四季度营收为8.62亿美元,与去年同期的6.43亿美元相比增长34%。其中,人才解决方案部门的营收为5.35亿美元,同比增长45%,占当季总营收的62%,去年同期的占比为57%;营销解决方案部门的营收为1.83亿美元,同比增长20%,占当季总营收的21%,去年同期的占比为24%;付费订阅服务部门(Premium Subscriptions)的营收为1.44亿美元,同比增长19%,占当季总营收的17%,去年同期的占比为19%。
——按市场地域划分,美国市场营收为5.27亿美元,占当季总营收的61%;海外市场营收为3.34亿美元,占当季总营收的39%。
——以销售渠道划分,实地销售渠道部门的营收为5.51亿美元,占当季总营收的64%;在线渠道部门的营收为3.11亿美元,占当季总营收的36%。
——基于美国通用会计准则,归属于普通股股东的净亏损为800万美元,上年同期为净利润300万美元、同比转亏。每股摊薄亏损为0.06美元,上年同期为每股摊薄收益0.02美元。
——基于非美国通用会计准则(Non-GAAP),净利润为1.26亿美元,上年同期为7700万美元,每股摊薄收益为0.94美元,上年同期为0.61美元。
——调整后的息税、折旧以及摊销前利润(EBITDA)为2.49亿美元,占营收的29%,上年同期为1.79亿美元。
——营收为29.91亿美元,上年同期为22.19亿美元、同比增长35%。
——基于美国通用会计准则,2015年归属于LinkedIn普通股股东的净亏损1.66亿美元,上年同期则是净亏损1600万美元。每股摊薄亏损1.29美元,上年同期每股亏损为0.13美元。
——基于非美国通用会计准则,净利润为3.73亿美元,上年同期为2.54亿美元,每股摊薄收益为2.84美元,上年同期为2.02美元。
——调整后的息税、折旧以及摊销前利润(EBITDA)为7.80亿美元,占营收的26%,上年同期为5.92亿美元。
LinkedIn CEO杰夫·韦纳(Jeff Weiner)表示:“对LinkedIn来说,第四季度的表现非常强劲,为增长和创新的一年成功收官。进入2016年,我们将更加专注于核心项目,这些项目将推动我们整个组合的增长及规模。”
LinkedIn CFO史蒂夫·索德罗(Steve Sordello)表示:“第四季度的表现很强劲,主要亮点包括推出了新的旗舰移动应用,三大核心产品线均实现稳步增长,实现了34%的营收增长。除了营收方面,我们的利润率也在扩大,调整后的EBITDA同比增长近40%,营收占比达29%。”
2016财年第一季度:预计营收将在8.20亿美元左右;调整后EBITDA约为1.90亿美元;基于非美国通用会计准则(Non-GAAP)每股收益约为0.55美元。
2016年全年:营收预计在36亿美元至36.5亿美元之间;调整后EBITDA约为9.50亿美元至9.75亿美元;基于非美国通用会计准则(Non-GAAP)每股收益约为3.05美元至3.20美元。
周四纽约股市收盘,LinkedIn股价上扬1.03美元,收报192.28美元,涨幅为0.54%。在截至美国东部时间2月4日下午17:57(北京时间2月5日早6:57),LinkedIn股价下跌55.83美元,跌幅为29.04%,暂报136.45美元。过去52周LinkedIn股价最高为276.18美元,最低为165.57美元。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。