
在2024年MWC世界移动通信大会上,中兴通讯发布端到端算力基础设施解决方案,提供算/存/网/IDC完整的全套解决方案,实现全栈软硬件一体化部署,加快业务上云速度。

数智化时代催生了海量算力需求,算力已经成为数字经济的重要驱动力。此次中兴通讯发布的解决方案,在硬件层面,全系列服务器提供高品质异构算力,高性能分布式全闪存储实现海量数据的快速读写,提升大模型训练的速度;无损网络实现0丢包、微秒级时延;全液冷模块化预制IDC,PUE低至1.13。在软件层面,打造AI Booster智算平台,通过自动并行训练最大化GPU利用率,通过可视化开发和自适应参数优化,大幅降低开发门槛。
此外,中兴通讯为不同的应用场景提供了差异化的解决方案。在通算领域,针对互联网云和电信云等通用场景,提供系列化通用服务器,全系支持液冷,为客户提供高性价比和高扩展性的通用算力。针对海量的大视频存储的场景,推出了大存储服务器。对于金融、科学计算等关键应用场景,推出业界领先的4路服务器。此外,针对高密度计算场景,中兴通讯推出IceCube全液冷整机柜方案,推进数据中心的绿色高效发展。在智算领域,中兴通讯提供系列化训练服务器、推理服务器和AiCube训推一体机,满足中心万卡规模训练池、区域通算/智算融合推理池、边缘训推一体等全场景需求。
中兴通讯端到端算力基础设施解决方案,提供系列化ICT硬件,实现全栈一体化部署,满足客户全场景需求。中兴通讯与全球运营商和行业伙伴展开深入的合作,共同推动算力基础设施的转型升级,为全行业提供高品质高效的澎湃算力,促进技术的持续创新和商用落地,加速全行业数智化转型。
好文章,需要你的鼓励
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。
南洋理工大学与腾讯联合研究团队开发出Rolling Forcing技术,实现AI视频实时流式生成的重大突破。该技术通过滚动窗口联合去噪、注意力锚点机制和高效训练算法三项创新,解决了长视频生成中的错误累积问题,可在单GPU上以16fps速度生成多分钟高质量视频,延迟仅0.76秒,质量漂移指标从传统方法的1.66降至0.01,为交互式媒体和内容创作开辟新可能。
华中科技大学研究团队发现,通过让AI模型学习解决几何问题,能够显著提升其空间理解能力。他们构建了包含约30000个几何题目的Euclid30K数据集,使用强化学习方法训练多个AI模型。实验结果显示,几何训练在四个空间智能测试基准上都带来显著提升,其中最佳模型达到49.6%准确率,超越此前最好成绩。这项研究揭示了基础几何知识对培养AI空间智能的重要价值。