总体而言,移动操作系统似乎很安全,但最近研究人员在谷歌的安卓操作系统上发现了6处新的安全漏洞,而且这些漏洞影响到了包括平板电脑和智能手机在内的所有安卓设备的安全。
来自美国印第安纳大学和微软公司的研究人员在一篇论文中称,描述了一种被称为“Pileup”的安全漏洞。Pileup,是“因更新而致特权升级”的简称。由于这些“Pileup”型安全漏洞存在,一旦安卓系统升级,将在用户不知情的情况下,使含有恶意代码应用的访问权限进一步提高,从而使整个系统处于危险状态。
“每隔几个月,安卓系统都将发布更新,将导致活跃系统内的数万个文件发生变动。而每款新的应用在安装过程中,都需要在自己沙箱及系统特权内进行有效配置,而不对现有应用和用户数据构成破坏。”研究人员写道,“正是这一复杂的移动更新逻辑程序,使安卓系统产生了这些漏洞。”
研究人员表示,他们已经在AndroidPackage管理服务(PMS)上发现了六种不同的Pileup漏洞,并证实这些漏洞存在于所有的Android开源版本上,影响到了全球超过3500款安卓手机。这意味着全球将有超过十亿安卓用户正面临着该漏洞的潜在威胁。
谷歌公司已获悉上述安全漏洞的存在,并已完成其中一处漏洞的修复工作。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。