北京时间3月25日消息,苹果并不是唯一一家与美国政府的间谍攻击做斗争的科技公司。正当苹果与FBI的官司广受瞩目时,谷歌也在以自己的方式加强自身服务的安全性——他们会直接把情况告知用户。
该公司将通过警告的方式加强Gmail的安全性,希望以此帮助用户在收发电子邮件时更好地采取自我保护措施。
其中一项变化是扩大“安全浏览”通知的范围,这项功能可以在用户从电子邮件中打开可疑链接时发出提醒。当用户点击某个可以链接后,系统便会在该链接真正打开前发出提醒信息,要求用户最终确认是否打开该链接。
在此之前,这种链接只会出现在用户尚未点击链接前。倘若用户没有看到链接,便不会再次发出警告。谷歌希望通过这种额外的警告帮助用户避开恶意网站。
除此之外,谷歌还将继续与政府支持的攻击行为展开斗争。当系统发现有政府支持的黑客正在监控用户时,便会展示一条全屏警告信息。谷歌曾经在官方博客中表示,只有不到0.1%的Gmail用户会收到这种警告,但由于看到这一警告信息的往往是记者、政策制定者和激进人士,使得这种警告变得尤为重要。
这种新的警告方式有可能与现有的警告共存,也有可能取代现有的模式。
谷歌最近一直在加强Gmail的安全性,该公司上月还宣布将向没有使用TLS加密技术的用户发送邮件。谷歌表示,自从发出这封邮件以来,使用加密连接发送的电子邮件数量增加了25%。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。