科技行者 10月23日 北京消息:此前华为被美国列入“实体清单”,许多厂商与华为停止合作,其中就有全球嵌入式、移动芯片领域的主导者——ARM公司。今天在ARM技术峰会北京站上,ARM中国董事长兼首席执行官吴雄昂称,中国客户推出的ARM芯片销量已超过160亿,并且强调,未来ARM也会继续向中国客户提供授权。
据吴雄昂所说,ARM在中国地区目前已有逾200个合作伙伴,中国客户基于ARM技术的芯片累计出货量超过160亿颗,95%的国产芯片都是基于ARM架构。
吴雄昂表示,ARM是唯一的非美国计算平台(注:ARM成立于英国剑桥,在美国有研发中心,2017年被日本软银收购),经过法务部门调查,不论是ARM v8还是未来的ARM v9都是源于英国技术,ARM会向以往一样持续对中国企业进行授权和服务支持。
会上,ARM宣布将推出两款全新的主流ML处理器,以及最新的MaliGPU与DPU。这些IP的集成代表着ARM有能力根据需求调整产品,把高端的体验带入消费者高效的日常生活设备中。
官方资料显示,曾经只是高端设备专属的沉浸式体验,如AR、高保真游戏、以AI为基础的全新移动与家庭应用案例,目前也逐渐成为主流市场的需求。让开发人员能够使用针对日常设备优化的高性能AI与媒体IP解决方案,可以赋能新的AI驱动应用案例,提供包括语音识别与always-on在内的功能,告别这些功能由移动设备所独享的时代。
从游戏设备到数字电视(DTV),人工智能已经无所不在,但要促成这些响应式体验,端点必须具备更强的计算能力。例如,数字电视的智能体验,包括智能助理语音指令、节目实时翻译,以及人脸辨识以强化家长监护。
为了达成这些功能,ARM推出的全新IP套件包括:
:提供真正的异构计算
继处理器(现称为Ethos-N77)发布后,Ethos NPU家族又添加Ethos-N57与Ethos-N37两位新成员。Arm Ethos产品组合旨在解决AI与ML复杂运算的挑战,以便为日常生活设备创造更为个性化与沉浸式的体验。由于消费者的设备越来越智能化,通过专属的ML处理器提供额外的AI性能与效率,是非常有必要的。全新的Ethos 对成本与电池寿命最为敏感的设计进行优化,NPU可以为日常生活设备带来优质的AI体验。
Ethos-N57与Ethos-N37的设计理念包括一些基本原则,例如:
此外,Ethos-N57的功能还包括:
Ethos-N37的功能还包括:
GPU
Mali-G57,将优质的智能与沉浸式体验带到主流市场,包括高保真游戏、媲美电玩主机的移动设备图型效果、DTV的4K/8K用户接口,以及更为复杂的虚拟现实和增强现实的负荷。这是移动市场划分中最大的一部分,而ARM的发布强调其基于Arm IP的片上系统(SoC),CPU, GPU进一步的性能优化的努力,它可以让开发人员有更多的时间创造出全新的沉浸式内容。
Mali-G57关键功能包括:
单位面积效率最高的处理器
Mali-D37是一个在最小的可能面积上包含丰富显示与性能的DPU。对于终端用户而言,这意味着当面积成为首要考虑,在例如入门级智能手机、平板电脑与分辨率在2k以内的小显示屏等成本较低的设备上,会有更佳的视觉效果与性能。
Mali-D37关键功能包括:
ARM介绍,这一套IP,设计时就考虑到解决方案,并吻合ARM全面运算(Total Compute)的初衷,以确保它们确实是实际体验驱动,同时针对解决未来工作负荷的复杂运算挑战进行优化。这套IP提供更高的单位面积效率且更为节能,同时能提升性能、降低成本及减少上市所需的时间,为移动设备带来更高保真游戏与媲美游戏主机的体验,为DTV带来计算复杂性,并为个人化沉浸式内容带来更高的ML性能,以及消费者期待的更快反应速度。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。