
2017年3月9日上海AWE,物联网第三方云服务第一品牌机智云发布人工智能产品机智玛莉。机智玛莉是通过多维度感知(Sensor Fusion) 与深度学习 (Deep Learning) 技术的支撑,在生态智能 (Smart Home-Ecosystems) 理论框架之下实现的新一代智能家居服务平台。
机智云总经理黄锡雄接受记者采访时表示:“机智玛莉是基于机智云基础服务的一个平台服务,她能够帮助家电企业训练出一个能够像人一样理解客户需求,并提供设备服务推荐的智能管家,接入机智云的智能家电企业可以根据自己的需求进行定制。机智云接入全球众多品牌、多品类的设备,我们以生态的方式实现用户真正需要的智能家居。”
要训练出这种智能管家,首先需要赋予她一般人所具备的基础感官能力,例如视觉,机智云这次AWE展示的AR虚实结合控制技术用到的就是基于深度神经网络(Deep Neural Network) 实现的图像识别能力,无论对于一般物体,或是人,甚至是小到人的动作手势,机智玛莉都能在毫秒级精确地进行识别。
除了视觉,机智玛莉还有良好的听觉。目前是结合科大讯飞的语音引擎(Speech To Text)和机智云独有的基于智能家居的语义引擎(Semantic Engine),机智玛莉能高效准确的理解用户说话的含义,随心所欲地跟家庭里的智能设备进行语音互动。
但是光有感官能力并不是一个完整的人,人还需要有感知能力。例如知道你是谁,你喜欢什么,最重要的是知道你想做什么。机智玛莉具备优秀的多维度感官能力,能处理来自摄像头、Wi-Fi Beacon、多普勒和红外体感等各种传感器的数据,能感应用户在哪里,或者是在做什么动作。机智玛莉实现和人一样的能力,需要五个方面的数据进行支撑。
首先是用户数据,机智玛莉需要区分并识别出,用户是谁、和谁在一起、曾发出过什么指令或者操作过什么设备。现阶段通过多普勒传感器、视觉识别与Wi-Fi Beacon等技术,机智玛莉能很好地获取这些数据。
其次是地点数据,这个地点指的是准确的地点,例如地点是在哪个房间,是卧室还是大厅。机智玛莉通过多维度感知,通过设备与设备之间Wi-Fi Beacon的相对数据,利用算法得知他们之间的物理位置关系,然后通过设备特性,估算出所在房间的特性,例如有电视的房间一般是卧室或者客厅。这样无需用户自己配置场景设备,玛莉就能感知这个地点在哪里,有什么设备,属于什么功能区。
然后就是情景数据,就是做什么。机智玛莉获取了用户与地点数据之后,加上时间数据,整合起来就能够通过深度学习的方式,还原部分情景,例如早上用户在洗手间,一般是在洗漱,或者工作日9点用户离家就是去上班等等。当然用户也可以通过语音等交互方式告诉智能管家(机智玛莉),她现在在哪,想要做什么。
有了以上三个方面的数据,接下来就是确定服务数据,就是这个人,在这个地点,要做这个事情,需要什么服务来支撑。用户需要的家居服务由设备提供,例如空调可以提供三种服务:制冷、制热、过滤空气,又或者制热这个服务可以同时有空调或者取暖器提供。所以智能管家首先会理解用户到底想要什么样的服务,而不是直接判断用户需要操作什么设备。
最后是设备数据。确定了服务,还要根据所在地点所存在的设备来实现这个服务。机智云总经理黄锡雄补充:“这个对于机智云来说是最熟悉的领域了。因为这么多年来,机智云积累了大量项目经验,对各类设备的特性,包括传感器获取的数据和所能提供的服务,以及背后的逻辑,都有一个很深刻的理解与认知。”
基于以上五个方面多个维度的数据,机智云的智能管家系统就能像一个人一样理解用户的指令了。例如用户说“我想更暖和一点”,机智云就开始获取以上说到的数据,例如她是谁,在哪里的哪个房间,她现在可能在做什么,她对“一点”的定义到底是1度、5度还是10度,加热这个服务是由空调、取暖器还是地热提供,还是一起提供。全部运算完毕后,管家会通过询问的方式来与用户确认,例如跟用户确认“是否需要打开空调并调至28度?”
不过,在初期的时候这个管家可能会让人觉得比较“笨”,什么都要问,这是因为深度学习需要训练集来优化她的学习结果,先通过对话跟用户确认服务目的,因此在经过不断的训练后,她会变得越来越聪明,未来用户可能只需要通过一个手势或者眼神,机智玛莉就会默契地为用户做好一切。
机智云作为国内最大的第三方物联网云服务平台,具有跨国内外先进品牌、众多品类的接入能力和运营能力,打造生态化的智能用户体验有先天的优势。通过这样的一个平台服务,机智云希望为广大家电企业训练出既有企业特色,又符合消费者需求的智能管家,让智能家居真正在主流消费人群中普及起来。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。