凭借着极为可观的文本量储备,一种新的算法能够撰写出令人信服的文章,这同时也标志着AI技术未来有可能被用于对普通民众施以整体性蒙蔽。
下面来看几条虚假新闻……
继特朗普意外发射远程导弹之后,俄罗斯已经正式向美国宣战。
俄罗斯方面表示,其已经“确定了导弹的飞行轨迹,并将采取必要打电话以确保俄罗斯人民以及该国战略核打击力量的安全。”白宫方面亦做出回应,指出“正在对俄罗斯违反禁令发射中程弹道导弹的行为给予高度关注。”
自2014年莫斯科方面吞乌克兰克里米亚地区并决定支持乌克兰东部的分裂主义分子以来,美国与俄罗斯之间的关系一直处于不稳定状态。
这里提到的新闻内容不仅纯属伪造,同时也标志着AI技术已经能够在很大程度上愚弄普通人类。
因为事实上,这些消息并非由人类所撰写。所有内容都来自某一自动生成算法,其需要的全部素材就只是作为开头的“继特朗普意外发射远程导弹之后,俄罗斯已经正式向美国宣战……”
接下来的工作完全可以由该项目独立完成。其能够为大家提供与任何给定主题相关的、极为翔实逼真的新闻报道。这一项目由位于旧金山的研究机构OpenAI团队开发完成。
该团队的研究人员们着手开发出一种通用语言算法,此种算法能够通过网络上的大量文本进行训练,从而实现文本翻译、问题回答并执行其它一些高实用性任务。但在过程当中,研究人员们很快开始担心这项技术遭到滥用的可能性。OpenAI团队政策主管Jack Clark表示,“我们开始对其进行测试,并很快发现其能够轻易生成各类恶意内容。”
Clark解释称,该项目的实际表现暗示着人工智能技术完全可能被用于自动生成令人信服的虚假新闻、社交媒体发帖或者其它文字内容。更具体地讲,此类工具有可能在总统选举期间发布影响整体政治气候的新闻报道或者丑闻。时至今日,虚假新闻已经成为一大严重威胁,而如果此类内容能够自动生成,那么结果将更加无法想象。另外需要强调的是,这种算法还能够针对特定人群的统计特征甚至个人偏好进行具体优化。
Clark表示,在不久的将来,人工智能也许会以可靠的方式及效率大规模发布虚假故事、伪造推文或者其它极具说服力的误导性评论。他指出,“很明显,一旦这项技术走向成熟——也许还需要一到两年——其完全可以被用于虚假信息的生成或宣传。我们正在努力解决这个巨大的隐患。”
当然,这种技术也有着可观的积极发展空间,例如用于总结文本内容或者改善聊天机器人的会话功能。Clark指出,他甚至利用这款工具自动为短篇科幻小说生成相应段落,而且结果取得了惊人的成功。
OpenAI团队主要进行基础性人工智能研究,但同时也在强调人工智能的潜在风险方面发挥着积极的作用。该组织参与了2018年关于AI风险的研究报告,其中也提到了由此带来误导性信息的可能性(这很可能与《黑镜》剧集中的某些情节类似,亦使得不少专家呼吁对AI技术成果进行保密)。
好消息是,这种OpenAI算法并不总能骗过那些拥有一定识别能力的读者。在大多数情况下,根据所给出的提示,它只会产生表面上连贯、但内容却并不通顺的乱码或文字,这些结果似乎是受到了某些网络新闻源的污染。
然而,它确实非常擅长撰写极为真实的文本,这亦反映出将机器学习应用于自然语言领域的一大最新进展。
OpenAI团队原本是打算为《MIT Technology Review》杂志提供文本生成工具,但测试当中暴露出的问题致使他们担心这项技术可能会被滥用,因此目前仅公开提供一套简化版本。另外,该团队正在着手整理一篇用于概述此项工作的研究论文。
人工智能技术的快速进步正逐渐帮助机器更好地掌握人类语言。最近的工作正通过向通用型机器学习算法提供极大规模的文本来获取可喜的效果提升。OpenAI团队计划将这方面效果提升至新的水平:他们的系统从网络之上获得了4500万页文本,全部选取自Reddit网站。与大多数语言算法相比,OpenAI的这一项目不需要对文本内容进行标记或者人为筛选,而能够直接学习所馈送数据当中存在的各类模式。
Salesforce公司自然语言处理专家兼首席科学家Richard Socher评论称,OpenAI的工作成果代表着高度通用化语言学习系统领域的最新典范。他在接受邮件采访时写道,“我认为这些通用型学习系统代表着未来的发展方向。”
而在另一方面,Socher表示并不太关注这项技术被用于生成欺骗性及误导性信息的问题。他总结称,“大家根本不需要利用人工智能来制造假新闻,毕竟普通人就能很轻松地完成这项工作。”
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。