微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 微软开发ARM版Windows Server 应对数据中心新趋势

微软开发ARM版Windows Server 应对数据中心新趋势

2014-10-29 08:54
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2014-10-29 08:54 CNET科技资讯网

部分人不相信微软在开发ARM版Windows Server,但让笔者好奇的却是,微软为什么迟迟不开发这样的软件。

一提到ARM处理器,人们会立即想到智能手机和平板电脑,但64位ARM处理器的处理能力要高得多。多年来,戴尔、惠普等硬件厂商一直在开发可以用在数据中心中的64位ARM服务器。

微软开发ARM版Windows Server 应对数据中心新趋势

64位ARM服务器设计有吸引力的原因有很多。最根本的原因是:配置64位ARM处理器的微型服务器的TDP(热设计功耗)在10-45瓦之间,远低于传统X86服务器(超过90瓦)。服务器能耗越低,服务器电费和数据中心的运营成本也就越低。

一台64位ARM服务器的能耗不足X86服务器的一半。由于能耗通常是数据中心最大的一项支出,因此ARM服务器能大幅降低数据中心成本。

各大商业性Linux巨头——Canonical、Red Hat和SUSE,多年前就推出了支持64位ARM处理器的版本。

云计算的兴起对数据中心的处理能力提出了全新的不同需求。微型服务器应运而生,能满足扩大规模,以及降低服务器成本和能耗的需求。

Red Hat与AMD、American Megatrends、AppliedMicro、ARM、Cavium、戴尔、惠普和Linaro等公司合作,启动了一个开发项目,使64位ARM处理器被应用在数据中心中。之前,Red Hat帮助开发了ARM的Server Base System Architecture,有助于加速跨多个64位ARM平台的软件开发和支持。

简而言之,Linux在64位ARM数据中心的发展中居于领先地位。微软别无选择,只能追随这一潮流。

微软开发ARM版Windows已经有一段时间了。不过,Windows RT在市场上没有取得成功,但是,把Windows Server移植到64位ARM处理器上远比把Windows 8变种移植到平板电脑上要重要得多。正如微软上一季度财报表明的那样,未来微软将更多地依靠不断增长的服务器和云计算业务获得利润。为了推动服务器和云计算业务的增长,微软已经采用了另外一项基于Linux的技术Docker,以获得更多的应用。使Windows Server和Azure支持64位ARM非常符合微软的技术和商业计划。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 奖励设计:让AI学会智能使用工具的关键
    2025-04-23 17:39

    奖励设计:让AI学会智能使用工具的关键

    想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。

  • ToolRL:奖励设计是工具学习所需的全部
    2025-04-23 17:34

    ToolRL:奖励设计是工具学习所需的全部

    想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。

  • X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御
    2025-04-23 14:08

    X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御

    想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。

  • "思考操纵":用外部思考让大型推理模型更高效
    2025-04-22 16:43

    "思考操纵":用外部思考让大型推理模型更高效

    想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-