微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 围绕“霄龙”扩大产业链,或是AMD重返中国服务器市场的一个策略

围绕“霄龙”扩大产业链,或是AMD重返中国服务器市场的一个策略

2017-08-24 23:09
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2017-08-24 23:09 周雅

CNET科技行者 8月24日 北京消息(文/周雅):620日奥斯汀发布会之后,AMD昨天正式将全套EPYC 7000系列数据中心处理器家族带到中国。

amd

整场发布会的重头戏,是包括腾讯、京东、百度、联想、曙光等十余家产业链合作伙伴带着产品和合作成果为AMD站台点赞,仿佛台上的AMD重返巅峰,可见中国市场将是AMD复兴之路的一个重要阵地,当然更是一个考验——曾在巅峰时刻,AMD服务器最高市场占有率达到27%

可见,围绕EPYC(霄龙)处理器进一步扩大产业链合作,是AMD打开中国市场的一个策略。

比如,腾讯、百度、京东的站台就能代表互联网市场和云计算市场EPYC的认可,当然同样能代表这两个市场的阿里巴巴也是AMD的合作伙伴。

实际上,腾讯此前已经在自身的数据中心小规模部署一批采用EPYC(霄龙)CPU的服务器,而京东和百度也直接表态,下半年开始陆续部署EPYC服务器产品。

  • 腾讯云高级总监邹贤能表示,腾讯云将于年底前推出基于AMD EPYC(霄龙)处理器的2路云服务器,最高可提供多达64个处理核心(128个线程),拥有超强单机计算能力,为业界提供更多样化的云产品和云服务。
  • 百度公司总裁张亚勤表示,搭载AMD EPYC(霄龙)处理器的单插槽服务器能够大幅增加百度数据中心的运算效率,减少总拥有成本,降低能源消耗。百度将随AMD EPYC(霄龙)的发布上市进行同步部署。
  • 京东硬件系统部技术负责人王中平表示,中国的互联网、电商企业都需要更多的计算核心和更高的内存带宽。AMD EPYC(霄龙)的资料报告中显示,最高达到32个内核,足以媲美业界通用的两路服务器,8通道的内存接口有利于实现更高的内存通信带宽,相信这些将更加贴近国内互联网企业的需求。京东也将同AMD EPYC(霄龙)一起,不断优化服务器系统的总体拥有成本(TCO),以及未来在大数据,人工智能,云计算等领域方面展开技术合作。

当然,EPYC也覆盖了OEM市场:与AMD合作逾15年的曙光这次带来9款服务器新品,全部基于EPYC平台,涵盖工作站、机架、刀片、整机柜服务器,面向高性能计算、云计算、大数据分析和深度学习等应用;联想、惠普、戴尔、宏碁、华硕五大PC厂商也在跟进EPYC的产品规划,联想将与AMDHyperscale共同开发与部署单插槽和双插槽的EPYC

发布会一大亮点,是多次被提及的人工智能应用,EPYC一大性能,是机器学习。一个重磅消息随之公布,AMD与百度将成立GPU技术联合实验室,推进GPU在人工智能技术的演进。

双方将共同测试、评估和优化AMDRadeon Instinct加速器,在需求分析、性能优化、定制化开发等多方面密切合作,探索将AMD GPU技术应用于百度数据中心,助力百度人工智能战略的落地。

显而易见的是,在人工智能领域的落地层面,少不了中美大量的企业、机构、研究者积极投身于人工智能技术的研究和商业化。但鲜为人知的是,据公开资料显示,近几年人工智能开始大爆发,很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效,再加上无限拓展的存储能力和骤然爆发的大数据这两个组合拳,也使得图像数据、文本数据、交易数据、映射数据全面爆发。

资料还显示,传统的通用CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力,相较而言,GPU具有高并行结构,在处理图形数据和复杂算法方面拥有比CPU更高的效率。对比GPUCPU在结构上的差异,CPU大部分面积为控制器和寄存器,而GPU拥有更多的ALUARITHMETIC LOGIC UNIT,逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理。CPU执行计算任务时,一个时刻只处理一个数据,不存在真正意义上的并行,而GPU具有多个处理器核,在一个时刻可以并行处理多个数据。程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。 因此,面向通用计算的GPU已成为加速可并行人工智能应用程序的重要手段。

而AMD Radeon Instinct正在推动真正的新一代异构计算。AMD近日推出的Radeon Instinct MI25MI8MI6加速器,结合AMDROCm 1.6软件平台(包括优化的MIOpen框架库),提高了性能、效率和易实施性,加速深度学习推理和工作负载培训等。这些加速器能够满足范围广泛的机器智能应用,包括在学术、政府实验室、能源、生命科学、金融、汽车和其他行业的以数据为中心的HPC级系统。

从这两个角度看,AMD与百度的GPU技术联合实验室,显得既恰逢其实又有的放矢。

彩蛋,附全套EPYC 7000系列数据中心处理器家族性能一览:

amd

amd

amd

分享至
7赞

好文章,需要你的鼓励

周雅

Miranda
关注科技创新、技术投资。以文会友,左手硬核科技,右手浪漫主义。
推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-