快手正在进行智能问答产品的内测,在搜索场景中为用户带来智能问答和文本创作等新功能。据悉,这是短视频直播行业首个基于大语言模型落地的应用产品。
据媒体7月8日消息,打开快手APP,进入快手搜索输入问题,就有机会获得来自智能问答产品提供的信息和答案。如用户搜索“西瓜怎么挑”、“PPI指数是什么意思”、“高中怎样才能高效学习”,快手搜索智能问答产品可以生成相关的文字回复,未来也会提供短视频结果展示,加深用户对答案的理解。该功能在原有搜索结果基础上提供了更加直接有效的信息补充,大幅提升用户搜索体验。
在传统的搜索场景中,用户需要对输入的关键词进行提炼和加工,以使得搜索引擎更好的理解自己的问题,并且在找的更多和找的更准之间进行权衡。对大多数用户来说,这个过程具备一定的操作成本。而基于大语言模型的快手搜索智能问答产品可以很好的理解用户通过自然语言表达的各种需求和提问,大大降低了用户获取信息的门槛,让用户“搜得容易”。
快手搜索智能问答产品利用大语言模型对于超长文本的理解和分析,可以帮助用户在海量内容中迅速锚定所需答案,更可以根据用户搜索需求直接定位到短视频内容的关键信息所在,提升获取效率。同时,针对大语言模型常见的AI幻觉问题,快手搜索利用站内海量内容进行矫正,尤其在事实性问题上,通过内容校验,可以更好地帮助用户完成高难度的内容辨别。
简言之,此次智能问答产品内测,也可看成是快手在推动AI技术普惠层面的有力探索。对比传统搜索场景,通过大语言模型技术能力在搜索场景的应用落地,智能问答产品不仅可以让用户“搜得容易”,还能“搜得满意”,切实享受到技术普惠带来的搜索的智能化体验。
据悉,快手还将基于搜索产品,不断探索更多利用大语言模型满足用户需求、提升搜索体验的可能性,在持续降低用户检索和使用门槛的同时,该能力未来还有望接入图文、直播及电商购物等多个场景,持续促进短视频+直播行业搜索智能化和技术应用普惠化。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。