如果没有神经网络,近年来人工智能取得的一系列突破——包括面部识别与自然语言处理系统等——将根本无法真正实现。
所谓神经网络,指的是能够摄取大量数据并对其内容加以理解的、众多紧密连接的处理单元。然而,此类神经网络的进一步扩展,则在硬件层面面临着严重制约——具体来讲,其对硬件资源的严苛要求意味着相关设备只能以远程方式存在于数据中心之内。
几乎任何设备都能够访问该硬件,数据将被上传至远端服务器,而后接受处理并将结果发送回客户设备处。之所以需要采用这样的方式,是因为神经网络往往需要巨大的电力供应,因此并不适用于智能扬声器或者工业传感器等低功耗智能手机及其它日常处理设备。当然,这种作法的弊端在于数据需要耗费一定时间才能完成由本地设备到云端的传输,这意味着,神经网络在相当一部分特定应用场景当中根本无法实现。
如今,麻省理工学院的研究人员们表示,他们可以使用一种新型芯片来解决这个问题——该芯片能够立足现场执行一切必要的数据处理任务。研究人员们于本周二宣称:“新芯片相较于标准处理器可实现95%的能源效率提升,因此可被集成至小型电池供电设备当中,以进行边缘网络计算。”
为了实现这一种显示的能源效率提升效果,负责领导新芯片开发工作的麻省理工学院电气工程与计算机科学研究生Avishek Biswas利用到了神经网络处理当中的所谓“点积”特性。
Biswas称,“通用型处理器模型是在芯片中的某一部分安置存储器,芯片的另一部分则设有处理器。当需要进行计算操作时,数据需要在二者之间往来移动。”而这种数据往来移动正是令神经网络功耗激增的主要根源。
“不过一种特殊运算确实能够对这些算法的处理过程加以简化,这就是点积运算(dot product)。我们的方法,本质是在思考能否在内存当中实现这种点积能力,从而避免数据的往来移动。”
Biswas和他的同事们构建起一款模拟人类大脑的处理器,其相较于以往设计能够更可靠地实现这一目标。其原型芯片可以同时计算16个点积,且与传统神经网络相比计算精度仅下降2%至3%。
IBM公司人工智能部门副总裁Dario Gil也参与到该项目当中,他表示这一实验结果“必然能够在未来实现在物联网当中使用更复杂的卷积神经网络,从而进行图像与视频内容分类这一重要目标。”
siliconangle.com
作者:MIKE WHEATLEY
编译:科技行者
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。