谷歌于当地时间本周二表示,该公司将发布iOS版Photo Sphere应用,此前该应用仅可在Android操作系统上使用。
Photo Sphere应用允许用户对某一景象360度全景抓拍,并自动将图片合成为一张全景图,用户可向左、向右、向上、向下全方位地欣赏其全景照片。此外用户还可以将这些照片分享到他们的社交网络或谷歌地图中。而且当用户在谷歌地图上浏览这些照片时,该公司将自动为用户挑选一些与当地相匹配的照片。
谷歌地图和全景照片产品经理伊凡·兰普波特(Evan Rapoport)曾在一份声明中表示,将该照片应用与地图一体化的目标之一是帮助人们“探索世界。”
对谷歌来说,推出iOS版Photo Sphere照片应用这种小拓展的效果是双重的。它有助于增建该公司的地图应用,争取更多用户,帮助他们标记下每一个独特的地方。同时这也符合谷歌要确保其照片产品得以最大推广的愿望——即使这意味着这款应用将登陆其竞争对手的移动平台。
本月早些时候,有新闻报道称谷歌正计划解除其广受欢迎的照片功能与其羽翼未丰的Google +社交网络之间的绑定。此外,谷歌还在去年10月份对这项功能进行了改进,其中包括一些新的算法,它们能够使用户在大量存储的照片中更容易地进行搜索,更好地备份照片文件。该公司还推出了一项名为Auto Awesome Movie的视频直播版照片编辑功能,方便用户通过拼接影片片段来快速构建电影,同时这款软件还添有背景音乐和滤声器。
当时担任Google+负责人的维克·古多塔(Vic Gundotra)现已离开了谷歌,过去他曾表示,这款Photo Sphere服务正“试图改变摄影界”。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。