
科技行者 10月23日 北京消息:此前华为被美国列入“实体清单”,许多厂商与华为停止合作,其中就有全球嵌入式、移动芯片领域的主导者——ARM公司。今天在ARM技术峰会北京站上,ARM中国董事长兼首席执行官吴雄昂称,中国客户推出的ARM芯片销量已超过160亿,并且强调,未来ARM也会继续向中国客户提供授权。
据吴雄昂所说,ARM在中国地区目前已有逾200个合作伙伴,中国客户基于ARM技术的芯片累计出货量超过160亿颗,95%的国产芯片都是基于ARM架构。
吴雄昂表示,ARM是唯一的非美国计算平台(注:ARM成立于英国剑桥,在美国有研发中心,2017年被日本软银收购),经过法务部门调查,不论是ARM v8还是未来的ARM v9都是源于英国技术,ARM会向以往一样持续对中国企业进行授权和服务支持。
会上,ARM宣布将推出两款全新的主流ML处理器,以及最新的MaliGPU与DPU。这些IP的集成代表着ARM有能力根据需求调整产品,把高端的体验带入消费者高效的日常生活设备中。
官方资料显示,曾经只是高端设备专属的沉浸式体验,如AR、高保真游戏、以AI为基础的全新移动与家庭应用案例,目前也逐渐成为主流市场的需求。让开发人员能够使用针对日常设备优化的高性能AI与媒体IP解决方案,可以赋能新的AI驱动应用案例,提供包括语音识别与always-on在内的功能,告别这些功能由移动设备所独享的时代。
从游戏设备到数字电视(DTV),人工智能已经无所不在,但要促成这些响应式体验,端点必须具备更强的计算能力。例如,数字电视的智能体验,包括智能助理语音指令、节目实时翻译,以及人脸辨识以强化家长监护。
为了达成这些功能,ARM推出的全新IP套件包括:
:提供真正的异构计算
继处理器(现称为Ethos-N77)发布后,Ethos NPU家族又添加Ethos-N57与Ethos-N37两位新成员。Arm Ethos产品组合旨在解决AI与ML复杂运算的挑战,以便为日常生活设备创造更为个性化与沉浸式的体验。由于消费者的设备越来越智能化,通过专属的ML处理器提供额外的AI性能与效率,是非常有必要的。全新的Ethos 对成本与电池寿命最为敏感的设计进行优化,NPU可以为日常生活设备带来优质的AI体验。
Ethos-N57与Ethos-N37的设计理念包括一些基本原则,例如:
此外,Ethos-N57的功能还包括:
Ethos-N37的功能还包括:
GPU
Mali-G57,将优质的智能与沉浸式体验带到主流市场,包括高保真游戏、媲美电玩主机的移动设备图型效果、DTV的4K/8K用户接口,以及更为复杂的虚拟现实和增强现实的负荷。这是移动市场划分中最大的一部分,而ARM的发布强调其基于Arm IP的片上系统(SoC),CPU, GPU进一步的性能优化的努力,它可以让开发人员有更多的时间创造出全新的沉浸式内容。
Mali-G57关键功能包括:
单位面积效率最高的处理器
Mali-D37是一个在最小的可能面积上包含丰富显示与性能的DPU。对于终端用户而言,这意味着当面积成为首要考虑,在例如入门级智能手机、平板电脑与分辨率在2k以内的小显示屏等成本较低的设备上,会有更佳的视觉效果与性能。
Mali-D37关键功能包括:
ARM介绍,这一套IP,设计时就考虑到解决方案,并吻合ARM全面运算(Total Compute)的初衷,以确保它们确实是实际体验驱动,同时针对解决未来工作负荷的复杂运算挑战进行优化。这套IP提供更高的单位面积效率且更为节能,同时能提升性能、降低成本及减少上市所需的时间,为移动设备带来更高保真游戏与媲美游戏主机的体验,为DTV带来计算复杂性,并为个人化沉浸式内容带来更高的ML性能,以及消费者期待的更快反应速度。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。