8月13日, Google I/O Connect China 2025 —— Google 开发者大会在上海拉开帷幕。来自 Google 各领域的专家围绕 AI 驱动的技术创新、开发工具升级以及全球化平台生态进行了深入分享,帮助中国出海企业和开发者聚焦 AI 赋能、加速创新、更加高效、智能地在全球舞台上实现业务增长。
技术赋能,帮助开发者加速创新
长期以来,Google 始终致力于提供技术与工具支持,为开发者注入创新动力,帮助众多中国出海开发者不断突破边界,打造惠及全球用户的优质产品。对此, Google 大中华区及韩国总裁陈俊廷在致辞中指出,中国出海开发者已成为全球创新舞台上不可或缺的中坚力量。无论是初创公司还是大型企业,在 Google 全栈式 AI 解决方案和全球化生态支持下,在全球市场取得了显著成功。Google Play 年度最佳榜单显示,12 家中国开发者团队的 13 款应用和游戏,在全球不同市场斩获了 14 项“年度最佳应用”大奖,充分彰显了中国出海开发者在全球市场的卓越表现。
Google 大中华区及韩国总裁陈俊廷
大会期间,Google 开发者关系与开源业务总监 Timothy Jordan 也深入分享了 AI 模型如何赋能出海开发者突破创新边界。据介绍,Gemini 2.5 系列模型凭借更强的跨模态处理能力与响应速度,为出海开发者升级产品体验提供有力支持。 同时,在海外市场,Lyria、Veo3、Imagen 4 等生成式模型也为各类创意项目强势赋能,重新定义了创作极限。
Google 开发者关系与开源业务总监 Timothy Jordan
此外,与 Gemini 核心技术一脉相承的 Gemma 开放模型系列,让开发者能够根据实际需求开发更多衍生模型,为企业提升商业效率、解决实际问题开辟新路径。同时, Google 持续拓展 Gemma 应用,推出如用于医疗健康的 MedGemma、全球首个“海豚语”大模型 DolphinGemma和用于端侧设备的 Gemma 3n 等衍生模型,鼓励开发者利用其强大功能创造切实社会价值。
AI 全面融入开发栈,助力开发效率提速
在后续分享中,Google 还展示了如何以负责任的方式将 AI 无缝融入 Web、Mobile、Cloud 等多样化开发场景,通过全栈式开发环境革新、开发工具的深度集成等措施,帮助中国出海开发者加速创新、优化开发流程、全面助力开发提速,更高效地构建创新应用与个性化体验。
例如,由 AI 驱动的 Firebase Studio,其核心的 “自主智能体模式” 能让 Gemini 像真正的开发搭档一样,自主完成原型创建、功能添加甚至 bug 修复等任务,极大地释放了开发者的生产力;在 Android Studio 中,Google 引入了 “智能体模式”和“自选模型(BYOM)” 等实验性功能。开发者通过自然语言描述复杂目标,即可通过智能体自动执行修改。在 Chrome 开发者工具中,Google 内置了 Gemini AI 助理,可直接在“元素”面板中识别并修复代码问题,显著优化了 Web 开发流程。
这些更新涵盖跨设备协作、自动化调试、个性化用户体验构建等各个方面。Google 正是通过帮助中国出海开发者们全面掌握构建下一代智能应用所需的核心技能,助力他们在全球舞台加速实现创新落地。
打造开发者生态,助力中国创新走向全球
除技术和工具以外,Google 也持续通过丰富的资源、社区和合作伙伴网络,促进本土与全球开发者间的交流与协作,陪伴中国出海开发者长期成长。
此次大会上, Google 宣布正式启动 “Google Developer Program”,为出海开发者提供个性化主页、技能认证等专属资源,并第一时间推送最新的活动与技术更新。同时,还宣布了第四期“出海加速器”项目正式开启申请,助力更多中国出海开发者在全球市场加速成长。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。