Yoshua Bengio无疑是现代人工智能技术领域的大师级人物。
Bengio曾与Geoff Hinton以及Yan LeCun一道,共同支持所谓深度学习技术——这项技术近年来已经成功由原本的学术性探索成果,转化为世界上最强大的技术之一。 深度学习的基本思路,在于将数据交付至能够粗略模拟人类大脑的大型神经网络。而事实证明,深度学习技术强大且相当有效,适用于各类实际任务,具体包括语音识别、图像分类、自动驾驶汽车控制以及业务决策自动化等等。
尤其令人称道的是,Bengio一直拒绝加入任何科技巨头从事人工智能研究。不同于分别加入谷歌与Facebook的Hinton与LeCun,Bengio目前仍然在蒙特利尔大学担任全职教授。(不过他曾经于2016年参与Element AI项目的创建,该项目随后支撑起非常成功的业务体系,用于帮助大型企业探索AI研究的商业应用方向。)
Bengio日前接受了麻省理工学院《技术评论》杂志的AI高级编辑Will Knight的采访。
Q:在您看来,不同国家之间的人工智能技术发展竞赛意味着什么?
我很不喜欢这种趋势,我认为这不是正确的发展之道。
我们当然可以共同参与到竞赛当中,但作为一名科学家以及希望实现全人类共同利益的从业者,我认为我们最好能将着眼点放在如何构建更为智能的机器以及确保将人工智能用于为尽可能多的人实现福祉身上。
Q:那么,有没有办法促进各国之间开展更多合作?
我们本应降低发展中国家参与人工智能技术的入门门槛,这也是目前最大的问题所在。在欧洲、美国或者加拿大,非洲研究人员很难获得入境签证,这无疑造成了最大的壁垒——这些发达国家通常会找各种理由拒绝非洲学者的访问。这毫无公平性可言。发展中国家本身就很难在研究层面投入大量资源,如果他们无法与相关技术社区接触,那么未来的不公平性还将进一步加大。作为一种可行的解决方式,我们将在2020年于非洲召开ICLR大会(一项重要的人工智能技术会议)。
所谓包容性,绝不能仅仅体现在说官话套话上面。人工智能在发展中国家拥有更为强大的发展潜力,这些国家拥有远高于我们的技术发行诉求,这一切与他们的实际情况密切相关。
Q:无论是立足西方还是着眼中国,您是否担心人工智能的统治权最终会落入少数企业手中?
是的,也正是考虑到这一点,我们才有必要在人工智能研究领域推动民主化进程。人工智能研究本身往往正是权力、金钱与研究人员等资源的集中体现。最好的学生当然希望入职最好的企业,这类企业掌握着更多资金以及更多数据,但这种循环并不健康。即使是在民主制度之下,将太多权力集中在少数人手中同样非常危险。
Q:关于人工智能的军事性用途已经引发诸多争议。面对这个问题,您选择怎样的立场?
我对此表示坚决反对。
Q:即使是非致命性用途,您也同样反对吗?
这个嘛,我也不是特别反对。我认为我们需要明确一点,即机器人杀手是有违道德的产物。我们需要改变文化层面的认知,包括调整法律与法规,这将是一条漫长的道路。
当然,我们很难彻底阻止这方面尝试。毕竟人们会反驳称,“那些流氓国家会开发自己的人工智能武器。”但我的答案是,我们希望对方为此感到内疚,毕竟我们也可以利用人工智能开发出防御性技术。用于摧毁无人机的防御性武器,与针对人类目标的进攻性武器之间存在着巨大的差异。二者都可以利用人工智能技术。
Q:在您看来,AI专家难道不该与军方合作以确保这类技术得到合理使用吗?
如果专家们拥有正确的道德观念,那当然是件好事。但我并不会完全信任军事机构,因为他们更倾向于职责放在高于道德的位置上。我希望他们能够做出转变。
Q:在新的人工智能前沿研究方面,最令您感到兴奋的方向有哪些?
我认为我们需要考虑人工智能研究中存在的艰难挑战,而非对短期内出现的渐进式进展感到满足。当然,我不是说我们要否定深度学习的意义,但我希望整个行业能够以此为基础,对其加以扩展以实现推理,从而真正让人工智能掌握因果关系、乃至探索世界以学习并获取信息。
如果我们真的希望建立起与人类相近的AI方案,那将展开新的发展篇章。我们需要长期投入,在这方面学术界将成为激发火种的最佳环境。
Q:您提到了因果关系——换句话说,您希望人工智能不仅掌握数据中的模式,同时也应理解为什么会出现这样的模式。为什么这一点那么重要?实现起来又为什么如此困难?
如果我们能够根据自身面对的世界建立起良好的因果模型,那么我们甚至可以在不熟悉的情况下对该模型加以推广。这一点至关重要。我们人类能够将自身映射至与日常体验截然不同的情境当中,而机器却不行——其中的区别,就在于机器不具备此类因果模型。
我们可以手动设计这种模型,但这显然远远不够。我们需要能够发现因果模型的机器。在某种程度上,因果模型永远达不到完美,事实上我们从来也没有得到过完美的现实因果模型; 也正因为如此,我们才会犯下种种错误。但是与其它动物相比,我们人类确实做得更好。
就目前来讲,我们还没有找到真正良好的算法。但在我看来,只要有充足的人手参与到这项工作当中并真正对其给予重视,那么我们必将取得可喜的进展。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。