当地时间周三,谷歌在旧金山开幕的Google I/O 2014开发者大会上,发布了期待已久的Android Wear操作系统,同时展示了LG、三星和摩托罗拉等公司搭载该系统的可穿戴产品。
图:Moto 360智能手表
图: LG G智能手表
据悉,售价229美元的LG G智能手表以及售价199美元的三星Gear Live将从今天开始,在谷歌商店接受预订,而摩托罗拉的智能手表将在今年夏季晚些时候推出。LG和三星智能手表将在7月7日送达消费者手中。
在I/O 2014开发者大会上的主题演讲中,谷歌工程主管大卫·辛格尔顿(David Singleton)通过展示LG和摩托罗拉智能手表,介绍了Android Wear系统的语音指令、通知和其他功能。
辛格尔顿表示,“我们正处在创建一个小型化技术新的起步阶段,这意味着该技术最后将制造一台能够确保你全天候佩戴都十分舒服的微型电脑。”
面临智能手机和平板电脑增长放缓,谷歌和其他公司一直希望可穿戴设备能够为他们带来新的市场机会。市场研究机构IDC今年4月份的一份报告预测,到今年年底,全球可穿戴设备出货量将超过1900万部,达到去年出货量水平的3倍。预计到2018年,可穿戴设备的出货量达到1.119亿部,尽管如此,这一出货量仍比智能手机出货量低,预计同期智能手机出货量将达17亿部。
辛格尔顿称,人们每天平均看他们的Android手机的次数为125次,因而使用智能手表将更容易使用户快速获得通知,而且更易与周围进行互动。
功能方面,Android Wear包括了心率监视器和计步器。同时允许用户设置“请勿打扰”模式。用户可通过激活口令是“Ok Google”激活语音助手功能,可以用它来设置与查看提醒事项、语音笔记、邮件等。还能够用音乐控制系统控制智能手机上的音乐应用。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。