科技行者 1月16日 北京消息: 1月16日,在百度输入法“AI·新输入 全感官输入2.0”发布会上,百度输入法AI探索版正式亮相,这是一款默认输入方式为全语音输入,并调动表情、肢体等进行全感官输入的全新输入产品。同时,百度宣布语音技术取得一项对全球学术界和工业界都具备重大意义的技术突破,流式截断的多层注意力建模(SMLTA)将在线语音识别精度提升了15%,并在世界范围内首次实现了基于Attention技术的在线语音识别服务大规模上线应用。
发布会现场,百度高级副总裁王海峰表示,输入法是离用户最近的产品之一,也是AI落地的“桥头堡”,百度全方位的AI能力正在不断赋能输入法,让输入法更”聪明“。他也给出了输入法行业的“未来画像”,他认为,虽然目前的输入法产品主要应用于手机端,但未来的输入法将应用于各种智能设备与用户的交互,并走向世界,为全球用户提供更多元的输入方式。
图:百度高级副总裁 王海峰
据介绍,截至2018年底,百度输入法月活跃人数已达5亿,语音日请求量峰值突破5.5亿,AR表情使用次数超过1亿。同时,百度海外输入法全球安装量超过1亿,支持120种语言,覆盖全球190个国家地区,并已与超过100个全球知名IP达成合作,实现技术与市场的双丰收。
SMLTA语音识别精度全球领先 语音技术创新带动交互变革
百度输入法AI探索版是百度AI落地应用的又一重要成果,全语音交互是它最大的特点之一。“虽然当前输入法主流是键盘输入,但对用户需求变化的洞察,让我们有信心较早地推出这款全语音交互的产品”,百度中文输入法负责人蔡玉婷表示,相较2016年,百度输入法日均语音请求量增长了8倍,语音输入法的场景也从聊天和搜索拓展到游戏、娱乐、购物等众多场景。
全语音交互对于语音识别准确率要求极高,百度推出全语音交互输入法的信心,还来自于百度领先业界的语音技术。现场,百度语音技术部负责人高亮宣布了百度语音输入的四项重大突破和给输入法用户带来的体验提升。
在线语音领域,百度发布流式截断多层注意力建模(SMLTA),这是中文在线语音识别历史上的两个重大突破:世界上首次实现了局部注意力建模识别精度超过全局注意力模型;世界上第一次大规模部署在线语音交互注意力模型。这一技术能够解决传统Attention模型在识别中的时延性,以及因此导致的无法进行大规模在线语音实时交互的问题,并将在线语音识别精度提升了15%,超越行业最高水平15%。
离线语音识别领域,为解决用户多元输入场景的需求,百度持续优化Deep Peak 2系统,让离线语音输入相对准确率再次提升,高于行业平均水平35%。即使用户处于地铁、电梯、隧道或人流密集等离线场景中,依然可以借助百度输入法进行精准的语音输入。
中英文混合语音输入技术,以及方言与方言、方言与普通话的混合语音输入技术突破,让用户真正实现“自由说”,无论是中英文夹杂,还是普通话家乡话来回切换,百度输入法都能准确识别。据介绍,百度输入法是目前唯一实现了高精度“中英自由说”和“方言自由说”的输入法产品。
百度语音技术的突破同样让海外用户带来语音输入的便捷体验。本次发布会上,百度海外输入法展示了日语识别、印地语识别和印英混输功能,据第三方评测显示,百度日文输入法的语音识别精度位列行业第一,识别结果用户可接受度占比高达 90%,已成为日本最大的第三方输入法产品;印度用户语音功能的使用率已达21%,百度输入法帮助印度用户实现了自由沟通。
表情、动作成为输入新方式 全感官交互创造更多想象空间
伴随着百度语音、视觉、自然语言处理、知识图谱等百度AI技术落地输入法,“全感官”的输入变成现实。除了语音输入,百度输入法AI探索版还推出了拍立活、秀场、凌空手写等新功能玩法。无论是心爱的偶像,还是日夜陪伴的宠物,“拍立活”功能都可以让用户通过自己的动作“驱动”对方做出相同表情;“秀场”功能运用图像分割技术,让用户“穿越”到不同的虚拟场景之中,科技、清新、赛博朋克多种风格随意挑选,表情创作更具场景感、更加生活化;凌空手写如同隔空打怪,在空中书写也能被流畅识别,目前整体识别率已达到大规模应用的要求。
百度输入法全感官交互潮流也已进入海外并获得认可。据悉,借助AI技术的加持,百度海外输入法已经在全球建立起最活跃、最权威的表情社区。超级IP《变形金刚》系列首部独立电影《大黄蜂》已与百度海外输入法联手推出“大黄蜂”系列主题贴图和AR表情。截止目前,百度海外输入法已经和Hello Kitty、小黄鸭、小王子、格林奇等全球100余个知名IP达成合作,推出了一系列深受用户喜爱的IP皮肤和表情,同时深耕本地化运营,针对海外用户还设计了本地网红合作推广等定制化传播。2018年,百度海外输入法的推广视频,总观看次数已超过1亿。
输入法本质上是一款人机交互的工具,AI时代正在到来,人机交互的形态也将随之革新。“未来,百度输入法将不仅基于手机端,还将致力于连通包括智能家居、车联网等多种终端场景,集多种输入方式为一体,帮助用户在各种场景下高效、自如地传递信息。” 百度高级副总裁王海峰表示。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。