一位谷歌的工程经理呼吁采用新的人工智能架构,包括一种保护数据隐私的分布式方法。在他的演讲之后,在ISSCC(国际固态电路会议)上,有超过六篇学术论文描述了机器学习的新方法。
几篇ISSCC论文将计算和存储合并起来,这是一种长期以来追求的研究思想,一些人认为机器学习最终可以带来广泛的商业用途。就谷歌而言,该公司正在探索一种混合方法,让最终用户保留他们的数据,只是将神经网络权重发送到云中的参数服务器进行处理。
最终,谷歌及其同行需要在计算能力方面实现巨大突破,才能实现人工智能在其数据中心的前景。Olivier Temam是这家搜索巨头一项未指明的人工智能计划的经理,Temam表示,机器学习支持的谷歌图片搜索完成一个任务的一个循环就需要110亿次/秒的操作
Temam呼吁采用分布式的方法,这样边缘设备和云服务可以协作训练神经网络。设备在本地使用原始数据进行一些训练,然后将他称为语义数据的更改或神经网络权重发送到云端,神经网络模型在其中会进一步训练和完善。
Temam表示:“出于非常容易理解的原因,人们或公司不想将他们的数据发送到云端,所以我们已经表明可以创建联合学习的模型。”
一位观察者指出,这种方法可能会吸引黑客试图从语义数据中推断出原始数据。
谷歌同意在这里向数百名芯片设计师发表演讲,希望能为更强大的人工智能加速器产生新的点子。设计这种芯片的一个挑战是处理器和神经网络需要的大量内存之间的瓶颈。
搜索巨头需要的内存带宽在100TB/秒的范围。Temam表示,今天的高带宽存储器堆栈的速度慢了两个数量级,而SRAM则太过昂贵而且非常耗电。
一些学者描述了将计算嵌入到内存中的方法。由于各种专用存储器——包括记忆电阻、ReRAM等——的兴起,以及有时会使用大容量存储器或者模拟阵列的、受到大脑启发的计算机设计的影响,这一领域目前非常热门。
麻省理工学院副教授Vivienne Sze在2016年与人合著了一篇关于Eyeriss架构的论文,该架构可以解决这个问题。Vivienne Sze表示:“我们发现神经网络绝大部分能量都耗费在数据移动之中。”她表示:“你需要管理大量的数据和权重,所以数据移动消耗掉的能源比计算还要多。”
她在麻省理工学院的小组现在正在研究的灵活架构可以运行越来越多种类的神经网络,包括开始出现的许多简化。他们还在探索在机器人和无人机相机等应用上单位功率可以完成多少神经网络加速。
谷歌的Temam表示,只要实用而且成本低廉,该公司就可以接受所有新想法。Temam表示:“我们希望不断降低成本,以便更大规模地部署,并最终实现最佳性能。”
后面的几页扼要介绍了六篇关于人工智能加速器的ISSCC论文。其中大部分论文的目标都是降低推理工作的能耗,其中有一些支持一些培训工作。
使用TSV和电感耦合来堆叠SRAM
来自日本两所大学的Quest处理器使用通孔过孔和电感耦合将八个层中的96 MB SRAM堆叠起来。另外,它的24个内核每一个都有自己专用的4Mb的SRAM缓存。
韩国加速1到16位的CNN和RNNs
KAIST的研究人员为卷积和递归网络设计了一种加速器,分辨率为1至16位。它使用了均衡功能加载器(AFL),最大限度地减少了对片外存储访问的需求。
神经网络分类器采用了SRAM阵列
斯坦福大学和Imec的研究人员描述了一款28-nm分类器,芯片上包含了所有必需的存储器。它能够以中等的准确度,以每个任务3.79微焦的能耗处理任务,能做到这一点,部分的原因是针对卷积网络使用了约束BinaryNet算法。
SRAMs 存储权重,而ADCs负责计算它们
麻省理工学院的研究人员将神经网络权重存储在SRAM阵列中,以消除外部存储器非常耗电的读取操作。每个阵列上的模数转换器计算部分卷积。
伊利诺斯大学的内存中分类器达到了42皮焦耳/决定。其SRAM阵列具有推理和训练模式。
碳纳米管遇到电阻式RAM单元
伯克利、麻省理工学院和斯坦福大学的一批资深研究人员使尽浑身解数,采用整体3D工艺创造了一种基于1952个碳纳米管FET和224个电阻式RAM单元的新型器件。这个所谓的超维计算纳米系统处理语言翻译任务的准确率达到了98%。
编译:科技行者>
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。