北京时间7月27日晚间消息,网络安全公司Zimperium研究人员日前表示,他们在Android设备中发现了一处安全漏洞,允许黑客在用户全然不知的情况下远程访问Android设备。
Zimperium表示,该漏洞影响Android2.2至5.1版本,预计约95%的Android设备受影响。
该漏洞存在于Stagefright媒体库(用于处理媒体文件)中。Zimperium称,他们在Stagefright框架中发现了多处安全漏洞。公司还表示,计划在下个月的“黑帽安全大会”上公布更详细的信息。
只要知道用户电话号码,黑客就可以通过彩信(MMS)向该用户发送一个媒体文件。之后,黑客就可以入侵用户的Android设备。
Zimperium还举例称,黑客可以在用户睡觉时向其手机发送一个特洛伊文件,入侵手机后,再将该文件删除,让用户全然不知自己的手机被入侵。之后,黑客便可以远程操控用户手机的麦克风,窃取文件,查看电子邮件,盗取用户名和密码等信息。
Zimperium首席技术官祖克·亚伯拉罕(Zuk Avraham)称:“这些漏洞极其危险,因为它不需要用户采取任何行动。与其他攻击方式不同的是,该漏洞在用户睡觉时即可发动攻击。当你醒来时,黑客已经删除了犯罪证据。因此,你也就会像以前一样使用自己的手机,根本不知道这已经是一部‘被入侵’的手机。”
Zimperium不仅发现了漏洞,还开发了必要的补丁程序,并于今年4月和5月初提供给了谷歌。而谷歌也已将补丁程序提供给了部分合作伙伴厂商。
对此,谷歌在一份声明中对该漏洞的发现者、Zimperium研究人员约舒亚·德雷克(Joshua Drake)表示感谢。谷歌还称:“对于我们而言,Android用户的安全极其重要。因此,我们迅速行动起来,将补丁提供了合作伙伴。”
虽然如此,谷歌只是将补丁程序提供给部分设备厂商,仍有许多设备厂商尚未获得补丁程序。此外,通过OTA更新,Android补丁到达终端用户手中可能需要几个月时间。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。