微软周四证实,根据此前宣布的全球1.8万裁员计划,公司计划在9月18日启动第二轮裁员行动,在全球范围内削减2100名员工。
微软一位发言人证实了2100名裁员计划,并指出此次裁员涉及747名华盛顿州的微软员工,其他裁员则来自微软全球其他地区。
正如此前传闻,今天宣布的裁员涉及微软多个团队,但微软发言人拒绝透露最新一轮裁员将首先影响哪一团队。
在今年7月份,微软宣布了这项裁员计划,并在当时裁减了1.3万名员工。周四宣布的第二轮裁员行动意味着,该公司仍将在2015年7月前,削减操作系统和几乎涉及其他所有集团的2900名员工。微软表示,作为调整计划的一部分,未来还将削减20%的非全职员工。
截至2014年7月中旬,微软拥有超过12.5万名全职员工,这一数字包括作为收购诺基亚的一部分、带来的25000名员工。
微软表示,由于裁员,未来四个季度内公司将为遣散费和相关福利成本支出11-16亿美元的税前支出。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。