因为对神经网络深层功能的理解,不仅有助于我们了解其决策机制,同时我们构建更为强大的人工智能系统也至关重要。
中,也解释了他们如何通过逐一删除单个神经元的方式去理解和判断神经网络的性能。他们认为,理解神经科学与深度学习神经网络之间关联性的重要方法之一,正是调查个体神经元的作用,特别是那些易于解释的神经元。
研究人员开发了专门的图像分类模型,然后逐一删除其中几个神经元,从而测量每个删除对模型结果的影响。
据DeepMind称,他们的发现产生了两个结果:
研究人员广泛分析了只能对单一输入图像类别作出响应,且易于解释的神经元(即“选择性”神经元)。他们发现,在深度学习当中,此类神经元包括了"猫神经元"、情绪神经元以及概括神经元; 而在神经科学领域,此类神经元则包括Jennifer Aniston神经元等。然而,这些仅占少数比例的高选择性神经元在重要性上到底与其它低选择性、更令人费解且难以解释的神经元有何区别,目前还不得而知。
具有清晰响应模式的神经元(例如对猫的图像活跃,但对其它图像皆不敏感的神经元)比综合性的神经元(即能够对各类随机图像集发生反应的神经元)更易于解释
而为了评估神经元的重要性,研究人员在测试当中移除了部分神经元,从而观察网络的分类任务处理效能所发生的变化。如果其中某个神经元非常重要,那么将其移除就会产生极大的破坏性,并显著降低网络效能。相反,如果移除的神经元并不太重要,那么就不会造成什么影响。
神经元缺失对简单神经网络所造成影响的概念示意图。较深的神经元往往更为活跃。尝试点击隐藏层神经元并将其移除,观察输出神经元的活动所发生的改变。需要注意的是,移除一个或两个神经元对输出结果的影响很小,而移除大部分神经元则会产生显著的影响,并且其中一部分神经元确实比其它神经元更为重要!
这一发现与最近在神经科学方面的研究进展相互印证,目前科学家们已经证明那些作用不明的神经元实际上能够提供丰富的信息。这意味着我们必须迈过易解释神经元这道难关,才有可能真正搞清楚深层神经网络的运作机制。
虽然"猫神经元"可能更易于解释,但其重要性并不比综合性且不具备明确偏好的神经元更高。可以点击图中标记,看看重要性与解释性之间到底存在着怎样复杂的关系
因此,研究人员的结论是,尽管可解释神经元在直觉上更易于理解(比如"它喜欢狗"),但其重要性并不一定会比缺少明显偏好的综合性神经元更高。
推广能力更强的网络也具有更大的弹性
举例来说,如果一套图像分类网络只能对以前见过的特定小狗图片进行分类,却无法对新的小狗图像完成识别,就可以说是不具备智能。Google Brain、伯克利以及DeepMind最近在ICLR 2017上获得最佳论文奖项的合作论文就提到,深层网络能够简单记住其训练当中所见到的每一幅图像,这代表着其学习方式与人类仍然存在巨大差异。
然而,目前我们往往很难判断一套神经网络是否已经学会了足以推广到新场景应用的能力。为此,通过逐渐移除越来越大的神经元组,研究人员发现相对于简单记忆以往在训练期间见到过的网络,适应性更强的网络对神经元缺失拥有更好的弹性表现。换句话说,适应性较强的网络更难被破坏(当然,如果神经元移除至一定程度,其仍然会遭到破坏)。
随着越来越多的神经元被移除,具有广泛适应性的网络在效能下降速度方面远低于记忆性网络
通过这种网络稳健性衡量方式,科学家将能够评估是否能够通过为一套网络提供不符合要求的记忆而对其进行"欺骗"。此外,了解网络在记忆过程当中的变化也将有助于我们构建新的网络,从而保证更少地依赖记忆、更多地建立概括能力。
总而言之,这些发现确实能够被用于理解神经网络的力量。通过这些方法,我们发现高选择性神经元在重要性上并不强于非选择性神经元,而适应性更高的网络对单一神经元的依赖性也要低于单纯记忆型网络。这些结果意味着,单一神经元的重要性并不像人们想象中的那么高。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。