
[中国,上海,2025年6月19日] 在2025 MWC 上海期间中国电信联合华为举办5G-A“智聚大上行”创新发布会。会上,中国电信与华为联合发布了“基于智能编排和上行频谱解耦与池化,形成智能大上行技术”最新创新技术成果。该技术充分挖掘多天线的上行覆盖能力,并结合分布式UCN(User-Centric Network,用户中心网络)和时频制空功全资源实时共享,引入无线智能化技术,构筑无线网络AI业务承载网,赋能智能穿戴、车联网、AI助理实时交互等领域,标志着5G-A网络向成为Mobile AI网络底座迈出坚实一步。
“智聚大上行”深度赋能5G-A与AI融合
随着终端侧智能能力增强,设备与网络之间的数据交互频率和内容复杂度迅速提升,特别是视频、图像、文本等多模态数据的上行传输激增,同时实时语音交互、具身机器人操控等场景要求网络确保端到端低时延。移动AI业务发展推动网络架构向超低时延、高确定性、大上行方向演进。
智聚大上行创新技术,利用AI模型实时预测信道质量以及通过AI实现时频制空功五维协同调度,多频段智能选择,根据业务需求制式解耦,上行自由调度,提升5G网络的上行能力,优化用户业务体验。该创新使能5G-A网络能力精准预估,使时延降低30%+,上行速率提升15%+,边缘体验提升15%+,打造体验能效双领先的5G-A网络。
“智聚大上行”加速体验变现和AI应用繁荣,助力中国电信打造高速泛在5G-A网络
电信集团共建共享工作组总经理黄礼莲在发布会上表示,技术融合驱动变革,5G-A与AI的深度结合正重构人机交互模式,推动信息交互向情感交互升级。“智聚大上行”技术的发布标志着多模态数据交互将成为常态,网络服务实现从"联接服务"到"数智服务"的跨越。
近年来,中国电信与华为在5G-A领域的合作取得多项突破性成果,双方在上海、广东等地完成了三载波聚合连片部署,利用5G-A超级大上行特性,打造了上海宝钢智慧钢铁行业应用标杆,孵化了江浙低空样板点,其中的杭州低空血液航线项目荣获Glomo创新大奖。

中国电信共建共享工作组总经理黄礼莲会上致辞
华为公司副总裁曹明:5G-A 与AI 加速赋能产业变革
华为公司副总裁、无线网络产品线总裁曹明在会上表示,5G-A 正以超乎想象的速度加速发展,移动 AI 时代已急速到来。其应用深度融入人们的生活、工作与学习,大幅提升生产力效率;融入企业生产流程,实现降本增效。在技术创新实践中,华为与中国电信合作推动超级系列技术落地,在直播、智慧交通、智慧生产等场景中兑现了超级上行系列创新价值。
曹明进一步指出,未来中国电信与华为将继续以科技创新为引领,围绕中国电信技术创新战略解锁 5G-A 潜能,推动智能联接向“无所不快、无所不及、无所不能” 的目标加速迈进。双方将持续深化与全球伙伴合作,以 “开放创新” 理念推动 5G-A 标准演进,为无线网络高质量发展注入新活力。

华为公司副总裁、无线网络产品线总裁曹明会上致辞
未来,中国电信与华为将继续以科技创新为引领,以应用需求为导向,持续推进“AI+5G-A“融合,打造网络领先、商用领先、应用领先的“5G-A×AI”商用网络,持续深化与全球伙伴合作,以“开放创新”理念推动5G-A标准演进,为无线网络的高质量发展注入新活力。

“智聚大上行”创新发布会
2025 MWC 上海于6月18日至6月20日在中国上海举行。华为展区位于上海新国际博览中心(SNIEC)N1馆。2025年5G-A商用加速发展,华为与全球运营商、行业精英、意见领袖等一同深入探讨通过AI技术创新,重塑业务、基础设施及运营运维,实现商业新增长,加速迈向智能世界。欲了解更多详情,请阅: https://carrier.huawei.com/cn/events/mwcs2025
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。