日前,《福布斯》网站遭到了黑客组织叙利亚电子军的攻击,超过100万用户的电子邮件和密码被盗。黑客在盗取用户数据的同时,还在网站上发布了虚假信息。
黑客表示,之所以攻击《福布斯》网站,是因为该网站发表的一些文章内容“非常直白的、公然的透露出对叙利亚的仇恨”。
周五,福布斯在Facebook上承认其网站和一些发布平台遭到了黑客攻击,并称一些电子邮件地址可能 已经暴露,但密码加密、未受影响。不过,福布斯警告读者和投稿者,作为预防措施,应及时更改密码。福布斯在警告安全信息中称:
“Forbes.com网站遭到了数字攻击,而且我们的出版发行平台也遭到了攻击。用户的电子邮件地址可能已经暴露。密码加密、未受影响,但作为一项预防措施,我们强烈敦促《福布斯》读者和作者更给在我们系统上的密码,如果在其他网站上使用了相同的密码,敦促他们一并改之。我们已经通知了执法部分。我们将非常认真地对待这件事情,并向受到影响的社区成员道歉。”
除了盗取用户名外,叙利亚电子军在福布斯网站上发表了一篇题为“叙利亚电子军队入侵”的文章,随后不久该文章被撤下,似乎看不到此次攻击跟叙利亚电子军有关。
近来,叙利亚电子军成为积极、活跃的黑客组织。在去年,该组织曾侵入了Viber的数据库,而且曾对汤森路透、Onion以及BBC的Twitter账号发起攻击。而在今年早期,该组织还贸然闯进了微软的Twitter账户。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。