3月18日上午,曾经的全球互联网巨人雅虎正式宣布,将会关闭拥有300多名员工的雅虎北京全球研发中心(以下简称“雅虎北研”)。据内部员工透露,雅虎北研的一部分员工将会转移到美国总部继续进行研发工作,而离职的员工将会提供“N+4”补偿。
初听这件事情老冀感觉有点意外。在过去几年里,老冀不止一次参观过雅虎北研并且与雅虎北研总裁张晨进行过交流,感觉到这家研究机构的待遇很好,志气很高,定下来的四大研发方向(科学驱动的个性化、广告、移动和云计算)也很有前瞻性。
2013年7月,在雅虎北研的推动下,雅虎还收购了一家中国的创业公司智拓通达(北京)科技有限公司,其员工并入雅虎北研,以加强在大数据和移动方向的研发实力。
以此看起来,虽然雅虎的业务早就基本退出了中国市场,但是雅虎的研发在中国还是挺有想法的,怎么会说撤就撤了呢?
不过如果仔细研究一下雅虎美女CEO梅耶尔的一些做法,就会发现这么做也是在情理之中。
2013年2月,梅耶尔上任刚刚半年的时间,雅虎就颁布了新的办公制度,禁止员工在家办公。梅耶尔为什么会采取这么极端的做法呢?因为在此之前梅耶尔发现,即使在工作日的时候,雅虎总部的停车场上仍然是空荡荡的。为此她还专门查看了公司的虚拟专用网络(VPN)记录,发现很多在家办公的员工却并没有按时登陆。
于是梅耶尔果断做出了这样的决定。她认为,在家上班的效率并不高,一起办公更有利于增加团队的凝聚力和创新力,有利于产生新的创意。例如,雅虎2013年推出的天气预报应用,从原来的简单文本显示变成了高清图片,并根据地点、天气和时间的差异展示不同的照片。这款颇受好评的产品,正是两位工程师在办公室里一起想出来的。
其实也不仅仅是雅虎,很多互联网公司也是如此。梅耶尔曾经是谷歌的第20号员工,谷歌同样也非常强调面对面的交流,因此在美国之外的研发人员比例同样不高,相反却在总部所在的硅谷山景城大肆建设新的园区,扩充研发团队。
在此之前,雅虎在去年10月已经在印度裁员了400人,在英国也裁了不少人,主要都是针对产品和研发团队,并将在当地裁掉的一部分研发人员集中到美国总部,以利于提升研发效率,毕竟面对面的交流效率是任何通信工具都解决不了的,要不然现在通信这么发达了,各国的领导人仍然需要频繁出访以巩固外交关系。
我们看到,雅虎之所以将部分北研员工召回美国,也是为了集中力量搞好移动产品。通过多达40多起收购,加上对研发团队的重整,梅耶尔已经为雅虎制定了非常清晰的发展方向,那就是“移动先行”。
在今年2月召开的雅虎移动开发大会上,雅虎还发布了完整的移动开发工具套件,为移动开发者提供了一整套解决方案。
在移动领域,雅虎的野心绝不止做几款应用或把内容移植到移动端那么简单,而是完成了从既有的个性化平台和原生广告系统,到收购而来的数据分析利器Flurry和桌面应用Aviate的完整布局, 从而构建一个崭新的、充满想象力的生态系统。
梅耶尔的这些举措已经收到了初步的成效。前不久,雅虎发布了2014年财报。截至2014年12月底,雅虎的月活跃访问用户总数已经达到5.75亿,移动业务在第四季度的营收已达到2.54亿美元,比上一季度增长了23%。雅虎预计今年的移动总营收将会超过12亿美元。根据市场调研公司eMarketer的预计,雅虎将成为美国移动广告市场的季军,仅次于谷歌和Facebook。
从这个角度来看,雅虎关闭北研也就是情理之中了,这更有利于雅虎集中全球的研发力量,进一步攻打移动的高地。
前一段时间,雅虎北研总裁张晨还发表过《因移动而重生》的署名文章,他对中国移动互联网开发市场一直充满了信心。让我们大胆猜想一下,关闭了北研并收缩拳头的雅虎,会不会在未来的某个时刻,携带全新的移动产品重返中国?毕竟在互联网这个“十倍速”行业,一切皆有可能。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。