部分人不相信微软在开发ARM版Windows Server,但让笔者好奇的却是,微软为什么迟迟不开发这样的软件。
一提到ARM处理器,人们会立即想到智能手机和平板电脑,但64位ARM处理器的处理能力要高得多。多年来,戴尔、惠普等硬件厂商一直在开发可以用在数据中心中的64位ARM服务器。
64位ARM服务器设计有吸引力的原因有很多。最根本的原因是:配置64位ARM处理器的微型服务器的TDP(热设计功耗)在10-45瓦之间,远低于传统X86服务器(超过90瓦)。服务器能耗越低,服务器电费和数据中心的运营成本也就越低。
一台64位ARM服务器的能耗不足X86服务器的一半。由于能耗通常是数据中心最大的一项支出,因此ARM服务器能大幅降低数据中心成本。
各大商业性Linux巨头——Canonical、Red Hat和SUSE,多年前就推出了支持64位ARM处理器的版本。
云计算的兴起对数据中心的处理能力提出了全新的不同需求。微型服务器应运而生,能满足扩大规模,以及降低服务器成本和能耗的需求。
Red Hat与AMD、American Megatrends、AppliedMicro、ARM、Cavium、戴尔、惠普和Linaro等公司合作,启动了一个开发项目,使64位ARM处理器被应用在数据中心中。之前,Red Hat帮助开发了ARM的Server Base System Architecture,有助于加速跨多个64位ARM平台的软件开发和支持。
简而言之,Linux在64位ARM数据中心的发展中居于领先地位。微软别无选择,只能追随这一潮流。
微软开发ARM版Windows已经有一段时间了。不过,Windows RT在市场上没有取得成功,但是,把Windows Server移植到64位ARM处理器上远比把Windows 8变种移植到平板电脑上要重要得多。正如微软上一季度财报表明的那样,未来微软将更多地依靠不断增长的服务器和云计算业务获得利润。为了推动服务器和云计算业务的增长,微软已经采用了另外一项基于Linux的技术Docker,以获得更多的应用。使Windows Server和Azure支持64位ARM非常符合微软的技术和商业计划。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。