6月28日,2023 MWC上海盛大开幕。高通公司首席商务官Jim Cathey在GTI国际产业大会期间,发表主题为“5G+AI赋能数字未来”的演讲。演讲全文如下:
下午好,很高兴再次来到上海,也很荣幸能参加今年的GTI峰会。当前,我们正快速迈向人与万物智能互联的世界。高能效处理、分布式智能和网络边缘侧连接的融合正在推动这一趋势,使得数十亿智能终端能够实时连接至云端,也可以与彼此相连。同时,这一趋势正赋能全新服务、商业模式和体验,不仅助力行业数字化变革,而且改变了人们工作、生活、沟通和联系的方式。
5G对于数字未来至关重要。5G的开启恰逢其时,它出现在疫情前,实现在AI发展的初期,并且为未来的6G打下了坚实的基础。5G具有出色的性能、可靠性和容量,是数字经济的关键基础设施。
在中国,面向5G带来的全新机遇,高通与生态系统中的企业开展合作。为了更好地把握这些机遇,我们联合地方政府和合作伙伴建立了五个5G联合创新中心;我们也正在开展毫米波技术方面的合作,这一技术是实现5G终端、网络和服务全部潜力与价值的关键。5G的大规模部署预计将对全球经济增长产生重大影响。在中国,预计到2035年,5G将创造10万亿元的经济总产出,并支持1300万个新的工作岗位。
为了将5G扩展至更多行业,高通正与中国移动等行业领军企业合作,推动5G Advanced演进。5G Advanced是5G标准的第二阶段,它将带来赋能全新行业、用例和体验的增强功能与特性,包括AI驱动的系统设计、针对XR的全新优化和面向更低复杂度物联网终端的NR-Light(即RedCap)。高通也在研究通往6G之路的全新技术和功能。为了确保互操作性和可扩展性,我们需要全球统一的6G标准,这对移动行业的发展和成功至关重要。
AI是另一项对数字未来至关重要的技术,赋能终端感知、传感和更自主的运行。随着网联终端数量和数据流量不断加速增长,将所有内容传输至云端处理是不可行的。为了规模化扩展AI,在终端侧集成AI处理至关重要。大家或许没有意识到,但AI已经被应用于智能手机,并且几乎触及智能手机体验的方方面面——从影像到调制解调器及射频性能,再到恶意软件检测。
在终端侧运行AI还能带来众多益处,比如更高的即时性和可靠性、更个性化的体验和更好的隐私保护。当前,我们正将这些功能扩展至PC、物联网终端、汽车和XR头显设备,为这些丰富的消费类产品带来更强大的智能。
大语言模型和生成式AI是目前的一大趋势。随着这些模型被加速应用,仅在云端运行模型将变得不切实际,因为产生的数据规模庞大,且数据中心的基础设施、电力和维护要求成本高昂。基于终端侧智能,高通正在推动向混合AI架构的必然转变,即在边缘侧终端和云端之间分配AI工作负载,支持实现高度优化且高效的AI处理。高通相信,混合AI架构将在使AI大语言模型实现全部潜能方面发挥重要作用。
5G与AI的结合,正为各行各业带来创新机遇。在工业领域,更强的自动化控制能力、预测性维护和数字孪生等技术,正在推动向工业4.0转型。中国在推动5G工业应用方面的举措令人印象深刻,尤其是未来五年内建设超过1万个5G工厂的计划。在汽车领域,当前汽车正成为“车轮上的联网计算机”,集成了先进的处理、智能和连接能力。中国的汽车制造商正处于汽车数字化转型的最前沿,已经推出了支持5G和C-V2X的量产车型。
高通已植根中国发展近30年。多年来,我们一直与包括运营商、终端制造商、应用开发商在内的中国移动生态系统保持密切合作,支持他们持续增长。令我倍感自豪的是,高通已经与中国众多企业建立起牢固的关系,致力于持续合作,帮助中国加速实现数字未来。
谢谢大家,也欢迎大家继续关注本次大会的其它环节。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。