数字化技术已经无处不在。过去二十年以来,我们对智能手机、平板电脑和PC设备的依赖性越来越强,去年的新冠疫情则将这波浪潮推向新的高点。
传统智慧告诉我们,过度依赖于技术可能会削弱我们的记忆力、注意力以及自我控制能力,而这些显然都是重要的认知能力。然而,这种担心可能并没有事实依据。
科技改变社会
不少人公认的哲学之父苏格拉底,就深切地担心写作技术会给社会造成怎样的影响。由于演讲这种口头技艺对记忆力有着很高的要求,所以他担心写作会消除人们学习及锻炼记忆力的必要。
柏拉图曾援引苏格拉底的名言道:
人们在掌握了写作能力的同时,健忘也会同时在灵魂的深处扎根;他们不再需要锻炼记忆,因为靠着写下的东西就足以提醒自己。于是,人们将不再依靠于内在、而是借助外部标记来唤起记忆。
这段话很有意思,因为其一,这代表着早期哲人们关于新兴技术对于后代认知能力影响的代际讨论。直到今天,类似的讨论仍然存在——电话、广播和电视都曾经被认定是人类认知能力的“毁灭者”。
接下来则是第二个有趣的原因:虽然苏格拉底非常担心,但现代人类仍然能够随时把信息提交到记忆当中。技术只是减少了对于某些认知功能的需求,但却并不会影响我们的实际执行能力。
认知恶化
除了大众媒体耸人听闻的说辞之外,也有科学发现证明数字化技术会令人类的记忆力、注意力或执行能力变差。但在认真分析这些观点之后,我们就会发现其中存在着两个重要的前提性假设:第一,假定这种影响对于长期认知能力有着持久的影响;第二,认定数字化技术对于认知有着直接且无限的影响。然而,这两种假设都没有得到任何实证性研究的支持。
在对证据进行严格审查之后,可以看到所有影响性结论都只是暂时、而非长期的。例如,在一项关于人类对外部记忆形式的依赖性研究中,参与者在被告知某些信息会被保存在计算机上并供随时访问时,他们记忆信息内容的能力就会下降。与此同时,如果他们获悉如果自己忘记、信息内容将无从查证时,他们的记忆效果就会快速提升。
可以看到,虽然使用技术确实会表现出记忆力下降的“迹象”,但如果没有技术可以依靠,受试者仍然可以随时调动自己的记忆容量。因此,轻言技术会损害人类记忆力实在是太过草率。
此外,数字化技术对于认知的影响还可能取决于个人的积极性,而不单是认知过程。事实上,认知过程往往会在不同个体的不同动机背景之下拥有完全不同的运作方式。具体来讲,我们在某项任务中越是能找到充沛的内驱力,投入度与专注度也就越高。如果是这样,那么对于实验数据也就有了不同的解读——至少不单纯代表着智能手机会破坏持续注意力、工作记忆力或者功能性液态智力。
动机因素对研究结果的影响相当可观,毕竟参与者们往往会认为自己被要求完成的任务无聊或者无关紧要。由于我们已经习惯于使用数字化技术处理往来消息、回复电子邮件以及享受娱乐等日常事务,所以数字化技术的介入可能会削弱实验任务中的激励效果。
重要的是,这一切代表着数字化技术并不会损害认知——如果一项任务真的很重要或者很有吸引力,人们的执行能力并不会被智能手机所摧毁。
改变认知
为了运用数字化技术培训,内部认知过程较少关注信息存储与计算;相反,认知过程会习惯于将信息转换为可转移至数字设备上的格式——例如搜索短语,再对其进行重新加载与解释。这种认知转移就像是人们逐渐学会把阶段性思维结果记录在纸上,而不单靠自己的脑袋来记忆;或者举个更直观的例子,孩子们掰着手指进行简单计算。
二者的主要区别在于,相较于模拟工具,数字化技术能够帮助我们更高效地转移复杂信息集,而且不会引发任何准确性损失。如此一来,我们就能把自己从少数专门功能当中解放出来,利用内部认知能力处理其他核心任务。从认知的角度来说,数字化技术实际上是让我们得以达成远超以往的更大成就。
因此,不必将数字化技术视为我们内部认知过程的敌人;相反,它是在扩展我们的工作能力、扩充我们的认知边界。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。