据路透社报道,网络安全公司Hold Security周三发布的一份调查报告称,该公司仅利用三周时间,在网络黑市上发现了3.6亿不同的个人账户信息被黑客兜售。这些个人账户信息包括常常被用作用户名的电子邮件地址和文本中的大多数未加密口令。
Hold Security公司首席信息安全官阿列克斯·霍顿(Alex Holden)在接受媒体采访时表示,该公司正在调查这些黑客从何处获取了授信以及通过何种渠道获取了这些信息。与此同时,目前尚不清楚这些被盗信息的具体来源。路透社指出,在网络黑市上的这一发现,对于消费者和公司而言,其危害性不亚于信用卡数据被盗,因为各种各样的计算机系统证书可以访问任何公司的网上银行账号。
霍顿表示,这些证书当中包含的电子邮件涉及了各大服务提供商,其中包括谷歌和雅虎,以及几乎所有的《财富500强》公司和非营利组织。
对于长期密切关注网络安全的人来说,尽管此次Hold Security发现了多达3.6亿的个人账户信息被黑客兜售,但在他们看来或许并不值得大惊小怪。毕竟在去年年底时,曾发生过1.1亿人的个人信息被盗事件。而且这一事件只不过是过去几年来众多黑客频繁侵袭事件中的一小部分。
但在霍顿看来,此次在黑市上发现的3.6亿不同个人账户证书,大都是一些新的东西,那些已经交付到黑客手中的被盗信息则未被完全统计。除了安全证书,据称还有超过10亿个电子邮件地址也在这些黑市网站上出售。
在撰写本文时,霍尔顿还没有通知受到影响的相关公司或部门。他声称他的团队正在努力查明所有受影响的公司,并将通知他们自己公司的数据被黑客非法收集。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。