联邦调查局仍然不能证明谁是或不是在上个月对索尼的网络攻击,导致成千上万个内部文档遭窃,同时,一些涉及公司及其员工。
上月,索尼影业网络遭受了黑客攻击,导致成千上万个内部文档被盗,其中包括索尼公司及员工的一些机密信息被泄露。美国联邦调查局(FBI)12月初介入调查。
FBI日前表示,尽管怀疑索尼网络攻击案由朝鲜政府背后支持的黑客发起,但目前让然不能证明谁是或谁不是幕后的支持者。
在彭博社举办的一个电脑安全论坛上,FBI网络部门副主任乔·德马雷斯特(Joe Demarest)称:“目前无法将此归结于朝鲜。”
FBI官员对介入索尼网络攻击案后的首次公开评论,或表明美国政府正在对该网络黑客攻击案进行更大范围的调查。独立计算机安全厂商Mandiant依据被盗文件、受损硬盘数据规模,称此次索尼网络攻击案规模“空前”。
11月24日,自称为“和平卫士”(Guardians of Peace)的黑客组织声称,已获取了索尼影业的内部数据,包括一些“秘密”数据,并称如果去要求得不到满足的话,将公开这些数据。
但间接证据已经表明,朝鲜可能是索尼网络攻击案的幕后支持者。但朝鲜否认参与该网络攻击案,并表示支持这一黑客行为,当时朝鲜一名发言人表示,“侵入索尼影业网络的黑客,可能是朝鲜政府的支持者和同情者所进行的一场正义行为。”
针对索尼影业早前拍摄、计划即将上映的描述刺杀朝鲜领导人金正恩的影片《采访》,今年7月,朝鲜官员就此曾对白宫曾提出抗议。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。