微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 Meta官宣新研究:让AI像人类大脑一样处理语言

Meta官宣新研究:让AI像人类大脑一样处理语言

2022-04-29 18:28
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2022-04-29 18:28 海外来电

今天,Meta公司人工智能研究部门Meta AI官宣,正在着手一个长期研究项目,研究人脑如何处理语言,目标是建立更好的语言模型。

该项目日前宣布,将与神经成像中心NeuroSpin、法国国家数字科学与技术研究所Inria合作完成。有了这两个基金会的参与,Meta AI将比较人工智能语言模型和人脑对相同的口语或书面句子的反应。

“了解人类智力的起源是21世纪科学界的一大挑战”,NeuroSpin主任Stanislas Dehaene说道,“语言人工神经网络越来越接近于模仿人脑的活动,从而为思考如何在神经组织中实现人脑思想提供了新思路。”

目前,最接近人类语言的人工智能模型是通过观察上下文来系统地分解句子,并试图基于一种机器学习类型来预测下一个单词。尽管这些系统或许会带来一种表面“人性化”的错觉,但相比人脑,还是差了一大截。

例如,人工智能模型的输入是“Once upon”(从),要预测下一个词,能够预测到“a time”(Once upon a time,英语里常用于童话故事的开头,相当于“从前”),是个孤立的过程。而另一方面,对于一个在童话故事中长大的人而言,其大脑听到 "Once upon"后,大脑不仅仅会预测“a time”是下一个词组,脑海中还会浮现出与童话相关的各种神奇概念,例如邪恶的女巫、龙、城堡、英雄和其他具有文化意义的东西。

当大脑做出这些预测时,它们会生成特定的“大脑状态”,可以在大脑成像中看到。Meta AI利用功能性磁共振成像和脑磁图扫描仪,在志愿者阅读或听故事时拍摄大脑活动的快照。

当研究人员开始用机器学习记录来自公共数据集的大脑扫描,并结合新的功能性磁共振成像和脑磁图扫描仪,他们发现了一些有趣的事情。该研究表明,人脑中的语言处理过程与人工智能语言模型的工作原理类似,往往类似于有组织的层次结构。

例如,当单词触发视觉刺激时,大脑中有一些区域与视觉处理算法类似,也有一些区域与表示单词理解的算法类似,而整个网络的行为似乎与人工智能语言转换器类似。

在大脑研究中,我们已经知道,大脑的特定区域是视觉化和语言处理的一部分,它们的相互作用形成了构建叙事和表达的网络。Meta AI的结果显示,大脑的某些区域,如前额叶和顶叶皮质——位于大脑的前部和中部——最能代表语言模型,并能对遥远的未来进行单词预测。

在Meta AI工作的博士生Charlotte Caucheteux表示,“我们发现,更好的算法是在预测下一个单词越多,就越类似大脑的活动,这一点相当重要,因为这表明,大脑和算法之间共享的内部表征对于处理语言的算法是有用的。”

Meta AI的研究人员和他们的合作者认为,他们很可能踏上了成功之路,因为他们在分析了200名志愿者的简单阅读测试的大脑活动后很快得到了验证。约一周后,麻省理工学院的一个团队独立完成了一项类似的研究,并得出了非常相似的结论。

通过这些研究,Meta AI希望在人脑和人工智能模型之间建立可量化的相似性,并利用这些相似性对大脑功能产生新见解。通过提供与人类语言使用更协调的行为和反应的人工智能,它将能够以自然的方式更好地与人互动。

分享至
1赞

好文章,需要你的鼓励

海外来电

科技行者旗下编译团队,聚焦海外新技术、新观点、新风向。
推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-