安全研究公司FireEye周一发布的一份最新报告称,在苹果iOS 7.1.1及之后的系统,包括最新的iOS 8和iOS 8.1更新在内,存在一处安全漏洞,该漏洞可导致黑客入侵用户系统并安装恶意程序、窃取用户数据。
FireEye公司研究人员表示,黑客利用该漏洞进行“化妆攻击”(Masque Attack),即引诱用户点击恶意链接、邮件和短信页面而下载恶意程序,从而使这些恶意程序替代来自苹果应用程序商店的银行或社交网络应用。
研究人员称:“该漏洞之所以存在,是因为iOS无法执行相同应用程序标识符匹配的证书所导致。攻击者可以通过无线网络和USB利用这一漏洞。”
研究人员还称,在今年10月的一些专业安全论坛上,曾流出关于该漏洞的一些相关消息。但在此前的7月份,FireEye曾向苹果反馈过这一漏洞。
FireEye表示,公司之所以公开该漏洞,是因为最近Palo Alto Networks公司发现了首个利用该漏洞的恶意代码“WireLurker”攻击案例。“WireLurker”代码可以对苹果的台式机、笔记本以及其他移动设备发起攻击。
FireEye建议,为避免遭到相关攻击,iOS用户最好不要从苹果应用商店之外的其他渠道下载应用,特别是使用那些贴有“不受信任的应用开发者”标签的应用程序。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。