
苹果日前向科技网站Record表示,该公司正在“积极调查”其iCloud账户是否被黑,今天,苹果对近来发生的攻击事件和明星照片泄露发布了一份声明。
在当地时间周日,包括詹妮弗·劳伦斯和凯特·厄普顿等明星的不雅照及视频被发布到图片共享网站4chan后,苹果“动员了苹果旗下的工程师们探寻其泄露根源。”
在部分声明中,苹果表示:
“经过40多个小时的调查后,我们发现,某些明星的账户受损主要源于一个非常有针对性的攻击,这种攻击主要针对用户的用户名、密码和安全问题,而这种做法在互联网上已经非常普遍了。”
在这份声明中,苹果声称其iCloud和“找到我的iPhone”功能并未被攻破:
据我们调查,没有任何情况表明(本次泄露事件)是因任何苹果系统被攻破而造成的,包括iCloud和“找到我的iPhone”功能在内。
苹果精心地为这份声明进行了措辞,而且并没有直接否认这些数据来自iCloud或“找到我的iPhone”功能。相反,苹果表示在他们所调查的情况中,并未有原因表明苹果系统被攻破。这可以解释为,假设苹果的调查并不完整,那么到目前为止,调查并未发现有任何迹象指明iCloud被黑客攻破。
有人猜测,这些不雅照可能来自用户的iCloud备份(而非iCloud照片),因为这次泄露的数据中包含一些视频,而视频目前并不直接存储在iCloud中。
在图片共享网站4chan暗示这些不雅照可能来自“iCloud”后,苹果最初仅作为一个照片来源被提到。然而这很快便遭到了质疑,因为在几台非苹果设备上也发现了这些内容。
碰巧这些不雅照泄露的时间发生在周日,这也暗示着照片来源可能是苹果,因为HackApp在周六刚刚发布了一个iCloud漏洞的概念证明。苹果昨日修补了其FMF强力破解漏洞,并将在5次“找到我的iPhone”密码试验失败后关闭用户苹果ID。
好文章,需要你的鼓励
加州大学伯克利分校研究团队开发的Pillar-0是一个突破性的医学影像AI系统,能够同时处理CT和MRI等多种影像类型的366项诊断任务。该系统采用创新的多窗技术和Atlas架构,在四种主要影像检查中准确率达86-90分,显著超越谷歌、微软等竞争对手。研究团队还开源了完整系统,为全球医学AI发展提供强大基础。
马里兰大学研究团队开发MASS系统,通过空间时间感知技术让AI具备物理学家般的视频理解能力。该系统创建了包含8361个问答对的MASS-Bench基准,将视频中的运动轨迹转换为AI可理解的语言描述,并使用强化学习训练模型的物理推理能力。实验显示经过训练的模型性能提升6-8.7%,在物理异常检测任务上甚至超越商业顶级产品,为AI视频内容审核、教育和科研应用开辟新方向。
杜克大学和字节跳动联合开发的Plan-X框架通过"语义规划器"和"视觉合成器"分工协作,解决了AI视频生成中常见的动作错乱、物体消失等问题。该系统先用多模态语言模型理解用户指令并制定详细执行计划,再由专门的视觉系统制作高质量画面。实验显示Plan-X在动作准确性、指令完整性等关键指标上显著优于现有系统,为智能视频生成提供了新的技术路径。
这项由谷歌团队领导的研究发现AI代理缺乏"预算意识",即使给予更多计算资源也无法有效利用。研究团队开发了预算追踪器和BATS框架,让AI代理能够感知和智能管理资源使用。实验显示,具备预算意识的AI代理不仅准确率更高,还能用更少资源达到更好效果,为构建经济高效的AI系统提供了重要突破。