安全研究公司FireEye周一发布的一份最新报告称,在苹果iOS 7.1.1及之后的系统,包括最新的iOS 8和iOS 8.1更新在内,存在一处安全漏洞,该漏洞可导致黑客入侵用户系统并安装恶意程序、窃取用户数据。
FireEye公司研究人员表示,黑客利用该漏洞进行“化妆攻击”(Masque Attack),即引诱用户点击恶意链接、邮件和短信页面而下载恶意程序,从而使这些恶意程序替代来自苹果应用程序商店的银行或社交网络应用。
研究人员称:“该漏洞之所以存在,是因为iOS无法执行相同应用程序标识符匹配的证书所导致。攻击者可以通过无线网络和USB利用这一漏洞。”
研究人员还称,在今年10月的一些专业安全论坛上,曾流出关于该漏洞的一些相关消息。但在此前的7月份,FireEye曾向苹果反馈过这一漏洞。
FireEye表示,公司之所以公开该漏洞,是因为最近Palo Alto Networks公司发现了首个利用该漏洞的恶意代码“WireLurker”攻击案例。“WireLurker”代码可以对苹果的台式机、笔记本以及其他移动设备发起攻击。
FireEye建议,为避免遭到相关攻击,iOS用户最好不要从苹果应用商店之外的其他渠道下载应用,特别是使用那些贴有“不受信任的应用开发者”标签的应用程序。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。