CNET科技资讯网 5月25日 国际报道:谷歌正在碾压着Siri,主导着智能家居,不过苹果还有机会在6月来一波反击。
在上周谷歌召开的一年一度的Google I/O开发者大会上,谷歌为我们展示了一连串令人兴奋的创新点。苹果应该为之颤抖了。
这家搜索及软件巨头目前正通过其Assistant在人工智能领域大步迈进,通过Google Lens在图像搜索和检测方面大显身手,通过即时应用(Instant Apps)改进其网络搜索,同时用户可以在Google上通过Jobs搜索工作。
换句话说,谷歌的生态系统将能够大大超越苹果所构建的紧密集成型软件和硬件系统,毕竟在提及Siri、虚拟现实、智能家居和汽车仪表盘等领域时,苹果的创新速度已经落后于谷歌了。
虽然谷歌的方法很清晰——利用深度信息数据库,希望将其他公司所依赖的平台据为己有,但苹果更喜欢掌控一个完整的、可靠生态系统,这也意味着后者需要花费更长的时间才能将所有事情“做好”。
在6月5日,也就是几周后的苹果开发者大会上,苹果就有机会用其自己在iOS、iPhone、MacBook、Siri AI、智能手表甚至是智能家居领域的改进对谷歌和新版微软系统进行反击了。
但谷歌上周的开发者大会给苹果带来了很大的挑战。我们将在下面阐述苹果应该担心、且需要将其A级产品带到其6月份的WWDC全球开发者大会上的原因所在。
·虚拟助手:谷歌的语音搜索工具早就超过了苹果的Siri。前者比后者更为精准,而且多数时候的反应都更为灵敏。而且不久以后,新一代Google Assistant将允许用户用Google Lens输入查询并识别物体。用户可以在会议结束后用Assistant迅速点午餐。而且它也将登陆iPhone。
·智能家居:Google Home刚刚为我们带来了一系列激动人心的功能,它们甚至超越了业界领导者亚马逊的Echo系列。即:它目前不仅区分与其对话用户,并进行个性化的反应,而引入了免提通话功能。虽然苹果有HomeKit,但我们还在等待传闻中将会到来的控制中心,类似于Google Home,能够将智能家居全部绑定到一起。
·图像:尽管人们对Google Photos有一些有争议的酷炫更新,但截至目前,最令人兴奋的变化之处都围绕着Google Lens,它主要是用来通过摄像头识别物体和地点的。而且Google Lens将首度与Google Photos和Google Assistant深度融合。
·VR和AR:根据传闻,苹果将把交替现实(alternate reality)技术加入其下一代iPhone的摄像头中,但谷歌已经推出了一款专用的虚拟现实头盔、支持VR的手机和两款AR手机了。
·Chrome:谷歌Chrome浏览器将可以同步移动手机,而且还可以支持更多设备(而用户在Android设备上无法使用苹果的Safari浏览器)。谷歌还宣布,其Chrome浏览器也将登陆VR。
·汽车:谷歌希望从一开始就让用户的汽车信息娱乐系统在Android平台上运行,而它也正致力于达到这一目的的各种途径。这其实不同于苹果CarPlay和Android Auto,后两者都是让用户通过手机来改变汽车屏幕上的内容,而谷歌正设法更进一步。
·搜索和数据库:谷歌的主要优势在于其搜索工具和庞大的事件和地点信息数据库。在I/O开发者大会上,谷歌宣布它将简化工作列表,使它们看起来更像搜索结果。
不过,虽然谷歌在某些领域目前确实占有优势,但苹果仍具有翻盘的空间。例如,其短信应用从iMessage到Face Time,都比谷歌的强,后者一直是一个混合复杂的冗余平台。而且苹果在跨设备整合其软件生态系统方面也做的更好。
(隐藏在Google Tango项目里的AR梦)
与此同时,苹果各设备的软件更新更为及时,而这点谷歌并不能保证所有设备都可以及时更新。虽然新的Project Treble项目会缓和一点这种弊端,但是其他使用其自家界面的手机制造商仍做不到完全同步更新。
诚然,苹果还有机会为其下一代操作系统(可能名为iOS 11)掀起一番热潮,但是最好用一种谷歌的新版Android O没有用过的方式。
尽管苹果可能永远也无法在搜索引擎领域赶超谷歌,但在其他一些重要领域,苹果确实拥有足够的资源来赶超这个对手,例如虚拟现实、增强现实技术和智能家居。
苹果的反击倒计时已开始。
苹果并未就此置评。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。