快手正在进行智能问答产品的内测,在搜索场景中为用户带来智能问答和文本创作等新功能。据悉,这是短视频直播行业首个基于大语言模型落地的应用产品。
据媒体7月8日消息,打开快手APP,进入快手搜索输入问题,就有机会获得来自智能问答产品提供的信息和答案。如用户搜索“西瓜怎么挑”、“PPI指数是什么意思”、“高中怎样才能高效学习”,快手搜索智能问答产品可以生成相关的文字回复,未来也会提供短视频结果展示,加深用户对答案的理解。该功能在原有搜索结果基础上提供了更加直接有效的信息补充,大幅提升用户搜索体验。
在传统的搜索场景中,用户需要对输入的关键词进行提炼和加工,以使得搜索引擎更好的理解自己的问题,并且在找的更多和找的更准之间进行权衡。对大多数用户来说,这个过程具备一定的操作成本。而基于大语言模型的快手搜索智能问答产品可以很好的理解用户通过自然语言表达的各种需求和提问,大大降低了用户获取信息的门槛,让用户“搜得容易”。
快手搜索智能问答产品利用大语言模型对于超长文本的理解和分析,可以帮助用户在海量内容中迅速锚定所需答案,更可以根据用户搜索需求直接定位到短视频内容的关键信息所在,提升获取效率。同时,针对大语言模型常见的AI幻觉问题,快手搜索利用站内海量内容进行矫正,尤其在事实性问题上,通过内容校验,可以更好地帮助用户完成高难度的内容辨别。
简言之,此次智能问答产品内测,也可看成是快手在推动AI技术普惠层面的有力探索。对比传统搜索场景,通过大语言模型技术能力在搜索场景的应用落地,智能问答产品不仅可以让用户“搜得容易”,还能“搜得满意”,切实享受到技术普惠带来的搜索的智能化体验。
据悉,快手还将基于搜索产品,不断探索更多利用大语言模型满足用户需求、提升搜索体验的可能性,在持续降低用户检索和使用门槛的同时,该能力未来还有望接入图文、直播及电商购物等多个场景,持续促进短视频+直播行业搜索智能化和技术应用普惠化。
好文章,需要你的鼓励
openGauss的目标是探索oGRAC和超节点深度融合的可能,打造超节点原生数据库。
清华团队开发DKT模型,利用视频扩散AI技术成功解决透明物体深度估计难题。该研究创建了首个透明物体视频数据集TransPhy3D,通过改造预训练视频生成模型,实现了准确的透明物体深度和法向量估计。在机器人抓取实验中,DKT将成功率提升至73%,为智能系统处理复杂视觉场景开辟新路径。
字节跳动研究团队提出了专家-路由器耦合损失方法,解决混合专家模型中路由器无法准确理解专家能力的问题。该方法通过让每个专家对其代表性任务产生最强响应,同时确保代表性任务在对应专家处获得最佳处理,建立了专家与路由器的紧密联系。实验表明该方法显著提升了从30亿到150亿参数模型的性能,训练开销仅增加0.2%-0.8%,为混合专家模型优化提供了高效实用的解决方案。
上海AI实验室团队开发的Yume1.5是一个革命性的AI视频生成系统,能够从单张图片或文字描述创造无限可探索的虚拟世界。用户可通过键盘控制实时探索,系统8秒内完成生成,响应精度达0.836,远超现有技术。该系统采用创新的时空通道建模和自强制蒸馏技术,支持文本控制的事件生成,为虚拟现实和内容创作领域开辟了新的可能性。