
如果没有神经网络,近年来人工智能取得的一系列突破——包括面部识别与自然语言处理系统等——将根本无法真正实现。
所谓神经网络,指的是能够摄取大量数据并对其内容加以理解的、众多紧密连接的处理单元。然而,此类神经网络的进一步扩展,则在硬件层面面临着严重制约——具体来讲,其对硬件资源的严苛要求意味着相关设备只能以远程方式存在于数据中心之内。
几乎任何设备都能够访问该硬件,数据将被上传至远端服务器,而后接受处理并将结果发送回客户设备处。之所以需要采用这样的方式,是因为神经网络往往需要巨大的电力供应,因此并不适用于智能扬声器或者工业传感器等低功耗智能手机及其它日常处理设备。当然,这种作法的弊端在于数据需要耗费一定时间才能完成由本地设备到云端的传输,这意味着,神经网络在相当一部分特定应用场景当中根本无法实现。
如今,麻省理工学院的研究人员们表示,他们可以使用一种新型芯片来解决这个问题——该芯片能够立足现场执行一切必要的数据处理任务。研究人员们于本周二宣称:“新芯片相较于标准处理器可实现95%的能源效率提升,因此可被集成至小型电池供电设备当中,以进行边缘网络计算。”
为了实现这一种显示的能源效率提升效果,负责领导新芯片开发工作的麻省理工学院电气工程与计算机科学研究生Avishek Biswas利用到了神经网络处理当中的所谓“点积”特性。
Biswas称,“通用型处理器模型是在芯片中的某一部分安置存储器,芯片的另一部分则设有处理器。当需要进行计算操作时,数据需要在二者之间往来移动。”而这种数据往来移动正是令神经网络功耗激增的主要根源。
“不过一种特殊运算确实能够对这些算法的处理过程加以简化,这就是点积运算(dot product)。我们的方法,本质是在思考能否在内存当中实现这种点积能力,从而避免数据的往来移动。”
Biswas和他的同事们构建起一款模拟人类大脑的处理器,其相较于以往设计能够更可靠地实现这一目标。其原型芯片可以同时计算16个点积,且与传统神经网络相比计算精度仅下降2%至3%。
IBM公司人工智能部门副总裁Dario Gil也参与到该项目当中,他表示这一实验结果“必然能够在未来实现在物联网当中使用更复杂的卷积神经网络,从而进行图像与视频内容分类这一重要目标。”
siliconangle.com
作者:MIKE WHEATLEY
编译:科技行者
好文章,需要你的鼓励
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。
英国国王学院研究团队开发了潜在精炼解码(LRD)技术,解决了AI文本生成中的速度与准确性平衡难题。该方法通过两阶段设计模仿人类思考过程:先让AI在连续空间中"深思熟虑",保持多种可能性的混合状态,然后"果断行动",逐步确定答案。实验显示,LRD在编程和数学推理任务中准确性提升最高6.3个百分点,生成速度提升最高10.6倍,为AI并行文本生成开辟了新路径。
清华大学团队开发的ViSurf是一种创新的大型视觉语言模型训练方法,巧妙融合了督导式学习和强化学习的优势。该方法通过将标准答案整合到强化学习过程中,让AI既能从正确答案中学习又能保持自主推理能力。实验显示ViSurf在多个视觉任务上显著超越传统方法,特别是在处理模型知识盲区时表现突出,同时有效避免了灾难性遗忘问题,为AI训练提供了更高效稳定的新范式。