
CNET科技行者 8月24日 北京消息(文/周雅):继6月20日奥斯汀发布会之后,AMD昨天正式将全套EPYC 7000系列数据中心处理器家族带到中国。
整场发布会的重头戏,是包括腾讯、京东、百度、联想、曙光等十余家产业链合作伙伴带着产品和合作成果为AMD站台点赞,仿佛台上的AMD重返巅峰,可见中国市场将是AMD复兴之路的一个重要阵地,当然更是一个考验——曾在巅峰时刻,AMD服务器最高市场占有率达到27%。
可见,围绕EPYC(霄龙)处理器进一步扩大产业链合作,是AMD打开中国市场的一个策略。
比如,腾讯、百度、京东的站台就能代表互联网市场和云计算市场对EPYC的认可,当然同样能代表这两个市场的阿里巴巴也是AMD的合作伙伴。
实际上,腾讯此前已经在自身的数据中心小规模部署一批采用EPYC(霄龙)CPU的服务器,而京东和百度也直接表态,下半年开始陆续部署EPYC服务器产品。
当然,EPYC也覆盖了OEM市场:与AMD合作逾15年的曙光这次带来9款服务器新品,全部基于EPYC平台,涵盖工作站、机架、刀片、整机柜服务器,面向高性能计算、云计算、大数据分析和深度学习等应用;联想、惠普、戴尔、宏碁、华硕五大PC厂商也在跟进EPYC的产品规划,联想将与AMD、Hyperscale共同开发与部署单插槽和双插槽的EPYC。
发布会一大亮点,是多次被提及的人工智能应用,EPYC一大性能,是机器学习。一个重磅消息随之公布,AMD与百度将成立GPU技术联合实验室,推进GPU在人工智能技术的演进。
双方将共同测试、评估和优化AMD的Radeon Instinct加速器,在需求分析、性能优化、定制化开发等多方面密切合作,探索将AMD GPU技术应用于百度数据中心,助力百度人工智能战略的落地。
显而易见的是,在人工智能领域的落地层面,少不了中美大量的企业、机构、研究者积极投身于人工智能技术的研究和商业化。但鲜为人知的是,据公开资料显示,近几年人工智能开始大爆发,很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效,再加上无限拓展的存储能力和骤然爆发的大数据这两个组合拳,也使得图像数据、文本数据、交易数据、映射数据全面爆发。
资料还显示,传统的通用CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力,相较而言,GPU具有高并行结构,在处理图形数据和复杂算法方面拥有比CPU更高的效率。对比GPU和CPU在结构上的差异,CPU大部分面积为控制器和寄存器,而GPU拥有更多的ALU(ARITHMETIC LOGIC UNIT,逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理。CPU执行计算任务时,一个时刻只处理一个数据,不存在真正意义上的并行,而GPU具有多个处理器核,在一个时刻可以并行处理多个数据。程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。 因此,面向通用计算的GPU已成为加速可并行人工智能应用程序的重要手段。
而AMD Radeon Instinct正在推动真正的新一代异构计算。AMD近日推出的Radeon Instinct MI25、MI8和MI6加速器,结合AMDROCm 1.6软件平台(包括优化的MIOpen框架库),提高了性能、效率和易实施性,加速深度学习推理和工作负载培训等。这些加速器能够满足范围广泛的机器智能应用,包括在学术、政府实验室、能源、生命科学、金融、汽车和其他行业的以数据为中心的HPC级系统。
从这两个角度看,AMD与百度的GPU技术联合实验室,显得既恰逢其实又有的放矢。
彩蛋,附全套EPYC 7000系列数据中心处理器家族性能一览:
好文章,需要你的鼓励
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。
英国国王学院研究团队开发了潜在精炼解码(LRD)技术,解决了AI文本生成中的速度与准确性平衡难题。该方法通过两阶段设计模仿人类思考过程:先让AI在连续空间中"深思熟虑",保持多种可能性的混合状态,然后"果断行动",逐步确定答案。实验显示,LRD在编程和数学推理任务中准确性提升最高6.3个百分点,生成速度提升最高10.6倍,为AI并行文本生成开辟了新路径。
清华大学团队开发的ViSurf是一种创新的大型视觉语言模型训练方法,巧妙融合了督导式学习和强化学习的优势。该方法通过将标准答案整合到强化学习过程中,让AI既能从正确答案中学习又能保持自主推理能力。实验显示ViSurf在多个视觉任务上显著超越传统方法,特别是在处理模型知识盲区时表现突出,同时有效避免了灾难性遗忘问题,为AI训练提供了更高效稳定的新范式。