10月20日,2021云栖大会上,阿里云发布了倚天、磐久、神龙4.0、龙蜥、灵杰等多款重磅产品,阿里云“做深基础”成果浮出水面,底层自研技术迎来大爆发。
阿里云智能总裁张建锋表示,过去十二年,阿里云打造出中国唯一自研的飞天云操作系统。今天阿里云坚持自研,继续“向下生长”,从飞天到倚天,打造以云为基础的软硬件技术体系。“构建完整的技术体系,是我们在数字时代具备全球竞争力的决定性因素”。
倚天:为云而生的芯片
飞天云操作系统是阿里云的核心“引擎”, 为了提供更好的计算产品和服务,飞天向下延伸、定义硬件。19日,阿里巴巴发布首款通用芯片——倚天710,这是一款为云而生的芯片,针对云计算的特点做了大量优化,性能超过业界标杆20%,能效比提升50%以上。
架构层面,倚天710采用最新ARMv9架构,多达128核,主频最高3.2GHz,可同时兼顾性能和功耗。同时,集成了业界最领先的DDR5、PCIE5.0等技术,能有效提升芯片的传输速率,并且可适配云的不同应用场景。
磐久:自研云原生服务器系列
面向下一代云原生架构,19日阿里云还推出了磐久自研服务器系列,采用了最新型的模块化设计,可实现计算存储分离,包括了高性能计算系列、大容量存储系列、高性能存储系列等,拥有风冷、液冷等不同散热模式,服务器交付效率提升50%。
针对云原生时代容器化、微服务、持续交付等特点,磐久系列采用软硬件融合方式实现极致性能,结合自研的MOC、FIC、AliFPGA、神盾卡等,满足云原生的创新开发对性能和稳定性的机制要求。在多核技术加持下,磐久系列的计算性能、IO吞吐、能效比的表现都居于业界领先水平。
神龙4.0:云计算进入5微秒时延时代
2017年,阿里云推出了第一代神龙架构,解决困扰云计算行业多年的虚拟化性能损耗问题,让云服务器突破性能极限。今天神龙架构演进到了第四代,首次搭载全球唯一的大规模RDMA加速网络,网络延迟整体降低80%以上,云计算首次进入5微秒时延时代。
神龙4.0可提升分布式NLP和视觉计算30%的训练性能、Spark 大数据30%的计算性能、MySQL 60%的性能、Redis 130%的混合读写吞吐量。
神龙4.0将弹性RMDA的加速能力融入公共云,让RDMA从HPC类应用,走向支持通用类计算场景,为Microservice,Serverless,Service Mesh等云原生技术大爆发提供技术支撑。
龙蜥:服务器操作系统开源
为给服务器提供更好的性能,阿里云发布全新龙蜥操作系统,并宣布开源。
龙蜥已在阿里巴巴内部打磨十年,历经“双11”大规模验证,性能和稳定性更优,给云上典型用户场景带来40%综合性能提升,可兼容CentOS生态,支持X86、ARM等主流芯片架构,并提供全栈国密能力。
未来,阿里云计划为龙蜥投入20亿专项资金,并联合100家生态合作伙伴推动龙蜥生态建设,提供至少十年技术支持。
PolarDB自研数据库:首次实现内存与计算存储解耦
除了操作系统,阿里云在基础软件的另一个核心领域——数据库,也迎来重大突破。
作为阿里云自研数据库的明星产品,PolarDB首次实现了内存与计算、存储的解耦,内存进一步池化,形成三层池化,使得弹性能力有数量级的提升。
同时PolarDB还首次实现了多主架构,进一步提升可用性、并发处理、弹性能力,高效应对“双11”般的流量洪峰。
阿里灵杰:让大数据+AI“开箱即用”
同时,阿里云将大数据+AI一体化平台“阿里灵杰”对外开放,可帮助企业和开发者实现“开箱即用”。
“阿里灵杰”包含机器学习平台PAI、云原生大数据计算服务MaxCompute、实时计算Flink版、大数据开发治理平台DataWorks、实时数仓 Hologres等产品,可调动规模高达10万台以上计算集群,拥有云边端一体的高性能训练和推理引擎,能提供毫秒级延迟的实时数据分析能力等,是中国最大的人工智能平台。
“阿里灵杰”还首次提出了大数据+AI一体化平台的4S标准,即大模型(Scale)、高效率(Speed)、易用性(Simplicity)、场景化(Scenario),为人工智能行业发展提供借鉴。
M6大模型:全球最大规模多模态预训练模型
基于“阿里灵杰”,达摩院开发了超大规模多模态预训练模型M6,主打多模态、多任务能力,其目标是打造全球领先的具有通用性的人工智能大模型。
据透露,M6的参数已从万亿升级至10万亿,成为全球最大的预训练模型,规模超越此前谷歌发布的1.6万亿Switch Transformer模型。
从芯片、服务器,到操作系统、数据库,再到大数据+AI一体化平台、M6大模型,阿里云围绕核心自研技术飞天,坚持做深基础的战略,向下生长,把软硬一体做到极致,为下一个十年建立了代际竞争力。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。