
北京时间2月5日消息,美国职业社交网站LinkedIn(NYSE:LNKD)今天发布了2015财年第四季度及全年财报。财报显示,LinkedIn第四季度营收为8.62亿美元,同比增长34%;基于美国通用会计准则(GAAP),净亏损为800万美元,去年同期为净利润300万美元,同比转亏。
——LinkedIn第四季度营收为8.62亿美元,与去年同期的6.43亿美元相比增长34%。其中,人才解决方案部门的营收为5.35亿美元,同比增长45%,占当季总营收的62%,去年同期的占比为57%;营销解决方案部门的营收为1.83亿美元,同比增长20%,占当季总营收的21%,去年同期的占比为24%;付费订阅服务部门(Premium Subscriptions)的营收为1.44亿美元,同比增长19%,占当季总营收的17%,去年同期的占比为19%。
——按市场地域划分,美国市场营收为5.27亿美元,占当季总营收的61%;海外市场营收为3.34亿美元,占当季总营收的39%。
——以销售渠道划分,实地销售渠道部门的营收为5.51亿美元,占当季总营收的64%;在线渠道部门的营收为3.11亿美元,占当季总营收的36%。
——基于美国通用会计准则,归属于普通股股东的净亏损为800万美元,上年同期为净利润300万美元、同比转亏。每股摊薄亏损为0.06美元,上年同期为每股摊薄收益0.02美元。
——基于非美国通用会计准则(Non-GAAP),净利润为1.26亿美元,上年同期为7700万美元,每股摊薄收益为0.94美元,上年同期为0.61美元。
——调整后的息税、折旧以及摊销前利润(EBITDA)为2.49亿美元,占营收的29%,上年同期为1.79亿美元。
——营收为29.91亿美元,上年同期为22.19亿美元、同比增长35%。
——基于美国通用会计准则,2015年归属于LinkedIn普通股股东的净亏损1.66亿美元,上年同期则是净亏损1600万美元。每股摊薄亏损1.29美元,上年同期每股亏损为0.13美元。
——基于非美国通用会计准则,净利润为3.73亿美元,上年同期为2.54亿美元,每股摊薄收益为2.84美元,上年同期为2.02美元。
——调整后的息税、折旧以及摊销前利润(EBITDA)为7.80亿美元,占营收的26%,上年同期为5.92亿美元。
LinkedIn CEO杰夫·韦纳(Jeff Weiner)表示:“对LinkedIn来说,第四季度的表现非常强劲,为增长和创新的一年成功收官。进入2016年,我们将更加专注于核心项目,这些项目将推动我们整个组合的增长及规模。”
LinkedIn CFO史蒂夫·索德罗(Steve Sordello)表示:“第四季度的表现很强劲,主要亮点包括推出了新的旗舰移动应用,三大核心产品线均实现稳步增长,实现了34%的营收增长。除了营收方面,我们的利润率也在扩大,调整后的EBITDA同比增长近40%,营收占比达29%。”
2016财年第一季度:预计营收将在8.20亿美元左右;调整后EBITDA约为1.90亿美元;基于非美国通用会计准则(Non-GAAP)每股收益约为0.55美元。
2016年全年:营收预计在36亿美元至36.5亿美元之间;调整后EBITDA约为9.50亿美元至9.75亿美元;基于非美国通用会计准则(Non-GAAP)每股收益约为3.05美元至3.20美元。
周四纽约股市收盘,LinkedIn股价上扬1.03美元,收报192.28美元,涨幅为0.54%。在截至美国东部时间2月4日下午17:57(北京时间2月5日早6:57),LinkedIn股价下跌55.83美元,跌幅为29.04%,暂报136.45美元。过去52周LinkedIn股价最高为276.18美元,最低为165.57美元。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。