苹果日前向科技网站Record表示,该公司正在“积极调查”其iCloud账户是否被黑,今天,苹果对近来发生的攻击事件和明星照片泄露发布了一份声明。
在当地时间周日,包括詹妮弗·劳伦斯和凯特·厄普顿等明星的不雅照及视频被发布到图片共享网站4chan后,苹果“动员了苹果旗下的工程师们探寻其泄露根源。”
在部分声明中,苹果表示:
“经过40多个小时的调查后,我们发现,某些明星的账户受损主要源于一个非常有针对性的攻击,这种攻击主要针对用户的用户名、密码和安全问题,而这种做法在互联网上已经非常普遍了。”
在这份声明中,苹果声称其iCloud和“找到我的iPhone”功能并未被攻破:
据我们调查,没有任何情况表明(本次泄露事件)是因任何苹果系统被攻破而造成的,包括iCloud和“找到我的iPhone”功能在内。
苹果精心地为这份声明进行了措辞,而且并没有直接否认这些数据来自iCloud或“找到我的iPhone”功能。相反,苹果表示在他们所调查的情况中,并未有原因表明苹果系统被攻破。这可以解释为,假设苹果的调查并不完整,那么到目前为止,调查并未发现有任何迹象指明iCloud被黑客攻破。
有人猜测,这些不雅照可能来自用户的iCloud备份(而非iCloud照片),因为这次泄露的数据中包含一些视频,而视频目前并不直接存储在iCloud中。
在图片共享网站4chan暗示这些不雅照可能来自“iCloud”后,苹果最初仅作为一个照片来源被提到。然而这很快便遭到了质疑,因为在几台非苹果设备上也发现了这些内容。
碰巧这些不雅照泄露的时间发生在周日,这也暗示着照片来源可能是苹果,因为HackApp在周六刚刚发布了一个iCloud漏洞的概念证明。苹果昨日修补了其FMF强力破解漏洞,并将在5次“找到我的iPhone”密码试验失败后关闭用户苹果ID。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。