科技行者 1月8日 北京消息(文/尹轶男):藏匿于威尼斯人酒店的亚马逊展台,低调的装饰,但是丝毫不影响展位上Alexa设备在会场外的现实世界火了一把。
来自亚马逊的官方数据显示,其语音智能方案已经走进千家万户,一年内普及度已经实现翻倍。本届CES上,亚马逊更是用心的将Alexa设备展台设计为HOME CHEF、BUSY PARENT、WORK-FROM-HOME EMPLOYEE、ENTERTAINMENT ENTHUSIAST四个系列相关产品。
内置Alexa的设备用了四年时间才达成1亿台普及度,但在接下来的短短一年内,亚马逊即成功让这个数字翻了一番。
目前全球用户手中拥有“数以亿计的Alexa支持设备”,且具体数字较去年1月公布的1亿台又有了大幅增加。当然,先后两轮统计都包括亚马逊自家推出的Echo智能扬声器、Fire平板电脑以及Fire TV产品线,外加多种可穿戴设备、电视以及计算机等第三方设备。
而Alexa与智能家居产品的交互同样处于上升期。目前,用户每周向语音助手下达数亿次指令,借此控制自己的智能家居设备。
亚马逊自豪的在CES 2020大会开幕舞台上公布了这些里程碑式的数字,未来还会通过汽车、电视以及联网住宅等场景与更多合作伙伴开展联动,继续保持Alexa的增长势头,从客厅、书房、卧室,再到汽车驾驶舱都在留下Alexa的身影。
对于一切支持Alexa语音功能的设备来说,2019年确实是非常非常重要的一年。
从传统角度来看,亚马逊公司对于自家业务的具体增长数字一直保持着低调谨慎的态度。而这一次的公开,也让我们看到经过五年多的发展,Alexa数字助手已然成为美国国内最受欢迎的智能家居控制方案。经历了如此迅猛的增长,亚马逊必须总结自身超越众多竞争对手(包括谷歌、苹果、三星等)的实践经验,并以此为基础进一步扩大Alexa的普及范围。
谷歌显然也抱有类似的野心,因此在过去几年的CES大展上,搜索巨头一直在不遗余力地为自家语音助手宣传造势。
不过,Alexa目前已经被集成至涵盖9500多个品牌的超过10万种智能家居产品(这一数字由亚马逊于上月公布,同样是一项了不起的成就)。现在就连智能刨丝刀上都对接了Alexa,未来还有哪些发展空间可以利用?
尽管形势一片大好,但Alexa的发展道路上还横亘着隐私这个巨大的挑战。亚马逊以及其他多家主要语音服务开发商过去一年中压力巨大,理由则是在未告知用户的情况下允许部分审核人员听取部分用户录音。为了改进语音服务,这样的作法倒是可以理解。但在少数情况下,这些外包人员可能在录音中无意了解到与用户私生活、个人银行或者医疗信息相关的内容。
亚马逊、谷歌以及苹果在事件之后迅速加大了隐私管理力度。亚马逊硬件业务负责人David Limp在上个月明确表示,他将持续关注消费者们在隐私方面提出的诉求。他指出,尽管引发了巨大争议,但Alexa支持型设备的销量并未放缓。他同时补充道,销量良好不代表没有问题,亚马逊绝不会坐视问题进一步恶化。
不过,作为亚马逊旗下的视频门铃品牌,Ring此前曾因安全漏洞以及与执法部门的合作关系而遭受批评,但他并不后悔收购Ring,买下Ring是亚马逊最满意的收购决策之一,对Ring的未来产品也充满期待。他和Ring团队非常重视客户的信任,因此将继续开发新的技术方法,确保Ring产品在安全性方面更上一层楼。
面对Alexa设备强劲的市场销售势头,Moorhead表示截至目前,亚马逊在满足大多数客户的隐私与安全需求方面确实表现不错。但“隐私与安全没有真正的终点,而是一种持续性目标。因此,在2019年奏效的方法到新的一年可能会派不上用场。”有鉴于此,他希望亚马逊能够继续积极推出新的功能,借以掌控不断变化的应用动态。
对于消除语音助手潜在隐私暴露的风险,或许还将是一条漫长而又艰巨的道路。好在,社会各界已经开始重视并着手解决了,我们认为这是一个好的开端,难道不是吗?
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。