CNET科技资讯网 3月29日 国际报道:硅谷狂人伊隆·马斯克(Elon Musk)又有了一家新公司,名为Neuralink的“医疗研究公司”,专门研究如何通过技术增强大脑。而业界所传的,马斯克正致力于将脑-机接口技术作为一种手段,来确保人类可以跟上人工智能的加速发展,其实就是这家公司。
据悉,马斯克这个项目是受到科幻小说的启发——在英国小说家 Iain M. Banks 的《Culture》系列科幻小说里,他打造了一款名为“神经织网”的设备。剧情中,人们在大脑皮层上植入了半有机的电子网格设备,能够和人工智能实现无线连接,并创建自己的大脑思维备份。
在Banks的科幻小说里,安装了“神经织网”的人基本上可以获得永生——如果他们的肉体死亡了,他们可以从大脑备份中“复活”。但,马斯克成立Neurallink公司的初衷,并不是想追求永生,而是希望实现人类想法的上传和下载,这样将有助于对抗人工智能的潜在危机——他本人不止一次的公开表达了这个观点。
马斯克在去年的编程大会(Code Conference)上提出“神经织网”(neural lace)的前景,就是通过手术连接到一个人类的大脑,并在没有带宽挑战以及当前输入方法(包括键盘、鼠标和触摸板)的情况下,允许用户与计算机进行交互。他曾在Twitter上表示,这一技术取得了进展,而且最近有传闻,他计划寻找另一家公司一起专注于这个项目。
然而,据《华尔街日报》报道,Neuralink并不打算专注于提升普通人类智力。相反,它将探索如何用大脑接口减轻危险症状和慢性病症。
这些病症可能包括癫痫症和严重的抑郁症。起初,Neurallink公司将以现有治疗帕金森患者的方法为基础——将电极植入到人类大脑里,通过调节大脑电子活动来缓解症状,寻求一个更科学和更易于人类使用的方式为出发点。扫除这个较低的障碍后,就会把人类机能增进,作为公司的长期目标。
根据《华尔街日报》的报道,Neurallink 公司的启动资金很可能会由马斯克本人、或是硅谷创投大佬皮特•泰尔旗下的 Founders Fund 创投基金提供。目前公司已经招募了三名员工,分别是来自美国洛斯阿拉莫斯国家实验室的Vanessa Tolosa——一位柔性电极专家;来自加收大学旧金山分校的教授Philip Sabes——研究方向是如何让大脑控制运动;以及来自波士顿大学的Timothy Gardner教授——他最著名的研究成果,是将一块微型电极植入到了麻雀大脑中,研究鸟儿如何唱歌。
在过去的十年时间里,科学家们已经开发出了一些成功的脑机接口(BCI),而Neurallink公司的三位专家将会基于这些接口开展工作,他们首先选择的脑机接口是——脑门(BrainGate),这款早期脑机接口技术允许人们通过大脑思维,在电脑屏幕上一个一个选择字母,然后拼凑成一个句子信息。通过在大脑初级运动皮层植入电极,脑门系统能够将人们的思想转换为运动操作,当人类大脑开始发出运动信号的时候,这种思维就会被转换成为电脑光标的运动。不过,该技术目前的研发进度非常缓慢,马斯克显然等不及了,他希望在Neurallink公司的支持下,加快开发。
或许听起来像是天方夜谭,但事实上这基本上是马斯克创办每一个新公司的标准剧本。SpaceX和特斯拉两个公司也是基于相同模式建立的,都是从近期可实现的产品出发,然后逐步以可持续发展的路径实现马斯克本人的伟大计划,例如在火星着陆,或是大量生产的远程电动汽车等。
在特斯拉和SpaceX之后,马斯克肯定为Neuralink也做好了完整的规划,与此同时还有他身边通过隧道研究解决城市交通问题的The Boring Company公司。这个硅谷狂人一直认为,人工智能可能存在影响人类的潜在危机,而且对他来说,寻求这种潜在解决方案是非常有必要的。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。