北京时间4月16日上午消息,谷歌刚刚面向Android平台推出了一项新的移动搜索功能,可以在用户搜索内容时向其展示移动应用安装广告。
这相当于把谷歌移动搜索页面变成一个应用发现服务,对于移动开发者而言或许会成为一大福音。
随着计算行业从桌面端向移动端全面转移,优质内容往往都通过应用来展示,在这种情况下,搜索引擎的用途便有所降低。为了解决这一问题,谷歌在2013年推出了应用索引,使之可以抓取部分应用的内容,并将链接显示在搜索页面中。
不过,在初期版本中,用户必须首先安装相关应用才能通过链接查看内容,今年早些时候则开始通过Google Now Cards显示相关内容。谷歌今后将面向所有开发者开放这个项目。
而移动搜索的最新升级则进一步加强了应用索引的概念,帮助用户通过尚未安装的应用找到相关内容。
应用索引项目现在已经获得了300多亿个深度链接——这是谷歌第一次公布这一数据,但该公司尚未披露具体有多少开发者部署了这个项目。
该项目的大致模式是:如果你通过Android手机搜索菜谱,而谷歌算法认为某款应用恰恰可以提供这一信息,你便会在搜索结果中看到相关应用, 旁边还会附带一个醒目的“安装”按钮。只要点击该按钮,便会跳转到Google Play商店,以便安装应用。应用安装完毕后,只要点击“继续”按钮,应用就会打开,并为你展示刚刚查找的信息。
此举对移动应用开发者而言至关重要。毕竟,应用发现仍是一个没有完全解决的问题,只要能将安装按钮和相关应用展示给更多人,都将给应用开发者带来福音。
“这个项目的目的是方便开发者继续在应用内创造优质内容,并通过深度链接让用户可以直接访问这些内容。”负责该项目的谷歌工程师拉吉安·帕特尔(Rajan Patel)说。
帕特尔还表示,该团队正在寻找各种方法来做大规模,使之不仅仅局限于Android平台。但他目前不肯披露详细信息。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。