在9月16日至17日召开的华为云计算大会(HCC2014)上,华为宣布推出全新服务器品牌FusionServer,致力于构建面向未来的最优IT基础设施。同时,华为还向世人展示了面向未来的业务驱动基础架构(Service Driven Infrastructure,SDI)和X6800数据中心服务器,以及RH8100 V3、RH5885H V3、E9000等一批明星服务器产品和华为芯片。
在华为与英特尔联合展台的未来展示区域,华为展示了面向未来的业务驱动基础架构(Service Driven Infrastructure,SDI)。 不同于传统的“软件+标准服务器”架构,华为开发出针对云数据中心、基于业务驱动的基础架构SDI。该架构由SDS(Software-Defined Storage,软件定义存储)、SDN(Software-Defined Networking,软件定义网络)软件模块和SDI硬件模块组成。
传统服务器、存储、网络资源依赖CPU控制,而在SDI模式中,存储和网络资源由SDI硬件统一控制,并以计算服务面向用户的服务器形成统一资源池,最终形成数据中心的基础架构。也就是将需要稳定、可靠、高性能运行的基础设施层与客户应用在逻辑上进行解耦,基础设施层则采用软件定义的方式先于应用系统运行起来。
业务应用通常会对基础设施提出具体要求诸如SLA/QoS,基础设施则根据应用策略自动执行动态的适配资源,在华为SDI架构中客户无需花费精力配置和感知这个过程。
在IT资源维度上,华为SDI架构体现的是软硬件解耦、硬件资源池化,以计算服务为中心;在客户价值维度上,华为SDI架构体现的是精简、高效、易用,以业务创新为中心。资源层面的解耦和业务层面的创新,其本质就是融合,将资源与业务融合,将创新与需求融合。以计算的变化之道推动技术融合、推动产业开放、推动价值共赢。
根据统计数据显示,相比传统数据中心架构,华为SDI能够降低78%的总体拥有成本(TCO),通过SDI控制器智能业务调度将CPU利用率提升1倍,同时性能进一步获得提升:
华为还推出了一系列基于英特尔®至强™E5 v3处理器家族的FusionServer V3服务器,包括面向大数据、云计算可实现快速部署、节能省地的数据中心服务器X6800。X6800包括存储型节点XH628 V3、面向图像渲染与HPC的XH622 V3节点以及面向冷数据的4U1节点和4U12微节点,面向虚拟化与云计算的4U8节点。
数据中心服务器X6800拥有极致扩展、节能省地、高效运维、便捷可靠、平台平滑切换的特点,可最大化节省客户投资,显著降低TCO。 X6800服务器架构灵活,专门针对软件定义存储、大数据、SDI基础设施等应用进行极致优化设计,是云数据中心服务器的理想选择:
在华为与英特尔联合展台创新展示区域,华为还展示出RAID控制器、10GE网卡、PCIe ES3000高性能SSD存储卡以及iBMC智能管理系统:
与此同时,在英特尔与华为服务器联合展台,还展示了SAP HANA、小型机迁移、高性能集群和X8000、RH8100 V3等创新解决方案与产品,全面展示了华为服务器基于横向扩展、纵向扩展、融合架构、应用加速市场化布局:
华为还推出了一系列基于英特尔®至强™E5-2600 v3处理器家族的FusionServer V3服务器,包括承担企业主流业务应用的RH1288 V3、RH2285 V3、RH2288 V3以及融合架构E9000刀片服务器CH121 V3、CH220 V3、CH222 V3以及CH242 V3节点。
V3系列FusionServer服务器丰富了华为面向业务优化、融合、开放的服务器解决方案,横向扩展、纵向扩展、融合架构和I/O加速的多维度应用一体化水平得到进一步提升。
融合架构刀片服务器E9000可实现高效扩展和降低50%的运维成本,通过计算节点CH121 V3、I/O扩展节点CH220 V3、存储扩展节点CH222 V3可满足虚拟化、HPC、应用加速和分布式存储等不同业务需求,CH220 V3还可实现GPU/GPGPU模式、SSD模式、混合模式灵活部署,可实现2倍的GPU虚拟化、2倍的GPGPU扩展、3倍的PCIe SSD扩容。
而对于V3两路的全新FusionServer服务器,架构、管理、安全、节能等方面都获得提升,在可靠性、可管理性、性能方面拥有显著改进。
更可靠:
智能管理:
高性能:
在HCC2014华为与英特尔联合展台,还展示了华为RH5885H V3、RH8100 V3、以及其他基于创新架构设计的服务器方案展示,华为研发的BMC管理芯片、Flash控制芯片、NC芯片等服务器关键组件等。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。