
互联网是一个奇妙的世界,没人知道你的照片何时拍下、从哪里来。
通过神乎其技的P图处理,图片可以被重复利用,或重新组合,而不留痕迹——这对那些试图为自己的分享增添趣味的人很有帮助,但对虚假信息的提供者也很有帮助。前阵子红极一时的“上海名媛”事件就是一个例子。
来自圣迭戈的初创企业Truepic公司希望让智能手机上的照片与视频更加可信。Truepic与移动芯片制造商高通合作,为智能手机的相机添加一种全新模式,能够根据拍摄的时间与地点,对图像进行安全标记,确保他人能够检查图像或视频的真实性。以此为基础,社交媒体上种种耸人听闻的消息及图片或将得到有效遏制。
这项新功能旨在支持一个名为「内容真实性倡议(Content Authenticity Initiative,下文简称“CAI”)」的组织正在开发的数字图像标准,该组织成员包括Twitter、Adobe以及《纽约时报》。该系统将允许图像和视频被标记上以加密方式编码的信息,包括真实位置与捕捉方式。一切编辑操作都会留下痕迹,新闻机构或其他组织则可借此跟踪篡改活动,或者验证来自其他组织的图像是否真实可信。
但任何标准只有得到广泛应用,才可能发挥影响力。Adobe表示将在旗下旗舰图像增强工具Photoshop中建立支持,《泰晤士报》则计划测试摄影记者与编辑如何使用此项技术。Truepic和高通的首个展示项目,将介绍如何将该方案集中至硬件当中。Truepic公司副总裁Sherif Hanna表示,“我们认为实现这一目标的重要方法,在于将其转化为人们移动设备上的原生功能。”
这项合作可能带来广泛的应用潜力,因为高通公司的芯片一直在为包括三星在内的各类大牌Android智能手机提供支持。高通公司副总裁Manvinder Singh表示,设备制造商完全可以将这项技术集成至公司芯片的未来设计中。Singh透露,“已经有几家企业对此表示兴趣。”当然,考虑到苹果公司一直采用定制化设计的芯片,因此若想在苹果设备上支持类似功能,需要配合单独的实施方案。
图:Truepic技术将支持Adobe及其他厂商正在开发的系统,借此以加密编码信息的形式向图像及视频中添加拍摄地点、如何拍摄等标记。
Truepic开发的照片标记代码,将在设备处理器的安全区域内运行,预计将使用负责支付操作或指纹扫描等任务的专项处理器运行。当人们将相机切换为安全模式时,像素捕捉会绕过设备操作系统,借此保证图像内容不受操纵。使用该设备的人仍可照常拍摄普通照片及视频。Hanna表示,该系统的出现,将使人们更加信息照片内容来自“真实场景,而非由编辑工具或者AI生成”。
但实际应用中的一大障碍,在于该应用需要接入互联网,才能通过政府时间服务器将经过验证的时间戳添加至照片上。整个过程不会添加任何可用于定位当前设备或用户身份的信息。此外,位置标记的精确度可能在几米范围,具体取决于拍摄设备的GPS信号质量。该应用创建的标签,将对支持CAI方案的软件直接可见,但具体标准的最终细节仍在开发当中。
里海大学助理教授Aparna Bharati一直从事图像取证工作,她表示使用图像来源对信息进行标准化标记的工具,将为在线媒体发布内容的可信度构建带来有益的贡献。但实际吸引力如何,恐怕仍有待观察。
在她看来,希望保护自己工作及声誉的媒体专家当然会欢迎这种工具,号称自己亲眼目睹或者经历了某些自然灾害的人们也会在照片加添加标签,让素材在新闻转载中变得更为可信。
但Bharati强调,任何基于真实性标准构建的标记工具,都有可能遭受攻击。未来,很可能有恶意攻击者、特别是政府支持的恶意组织尝试破坏这些控制方法。她认为,“我们必须尝试从敌对方的视角考虑问题。”
根据CAI的说法,他们正在制定措施,以防止对图像标记的滥用或操纵。Hanna则指出,将新功能与手机硬件集成起来,能够有效防止标记遭到干扰。
另外,Truepic还希望通过多种方式提高这种照片安全模式的知名度。这家初创企业已经与保险公司及电商平台开展合作,通过这项功能,确保人们上传真实有效的索赔素材或者退货申请。
好文章,需要你的鼓励
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。
英国国王学院研究团队开发了潜在精炼解码(LRD)技术,解决了AI文本生成中的速度与准确性平衡难题。该方法通过两阶段设计模仿人类思考过程:先让AI在连续空间中"深思熟虑",保持多种可能性的混合状态,然后"果断行动",逐步确定答案。实验显示,LRD在编程和数学推理任务中准确性提升最高6.3个百分点,生成速度提升最高10.6倍,为AI并行文本生成开辟了新路径。
清华大学团队开发的ViSurf是一种创新的大型视觉语言模型训练方法,巧妙融合了督导式学习和强化学习的优势。该方法通过将标准答案整合到强化学习过程中,让AI既能从正确答案中学习又能保持自主推理能力。实验显示ViSurf在多个视觉任务上显著超越传统方法,特别是在处理模型知识盲区时表现突出,同时有效避免了灾难性遗忘问题,为AI训练提供了更高效稳定的新范式。