下午,安卓手机内容聚合平台豌豆荚发布4.0新版,并正式宣布以“移动内容搜索”为核心战略。
搜索:从应用深入到内容 基于移动端数据
作为安卓手机内容聚合平台,一直以来,豌豆荚都以“移动内容搜索”为方向进行投入和发展,在豌豆荚联合创始人、,成为人们接入网络最主要的一“屏”。
王俊煜 2010年与2014年豌豆荚办公室对比图
王俊煜强调,豌豆荚在搜索上所积累的数据基于移动。手机搜索不是PC搜索的延伸,而是来自移动端的内容和用户行为数据。
统一搜索入口 百万内容资源
会上,豌豆荚“移动内容搜索”在豌豆荚 版上也得到了完整的呈现,将搜索扩展到包括应用、游戏、视频、电子书、壁纸、主题、音乐等在内的多个娱乐类别,并通一致的内容呈现出来。
在呈现上,用户可从统一的搜索入口发现自己想要的内容,免去了进入多个应用进行多次搜索的过程。
例如,用户想看《仙剑奇侠传》,搜索出来的包括视频、游戏、电子书、壁纸、应用等多类相关内容,且可在不同类别中间直接切换。而当一个关键词对应不同类别的娱乐内容时,新版豌豆荚将凭借积累的移动用户行为数据,判断在手机上用户希望优先获取哪类内容、并优先展示。
值得一提的是,豌豆荚在应用和游戏、视频、电子书、壁纸的内容索引都已经超过100万。
支持开放
豌豆荚4.0版本中基于内容的搜索方式,提供了简单的技术接口,开发者能以原生应用自由接入豌豆荚,无需重新构建产品。豌豆荚不会将用户和流量圈在自己的产品内,而是告诉用户在哪里可以找到他们想要的内容,然后将用户和流量直接导到开发者的产品中,为开发者带来收益。
王俊煜指出:“移动内容搜索”战略离不开开发者,豌豆荚希望最大化开发者利益,建立更开放的生态系统。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。
上海AI实验室团队发现自回归图像生成模型存在局部依赖、语义不一致和空间不变性缺失三大问题,提出ST-AR训练方法。该方法通过掩码注意力、跨步骤对比学习和跨视角对比学习,让AI"先理解再生成"。实验显示,ST-AR将LlamaGen模型的图像理解准确率提升一倍以上,图像生成质量提升42-49%,为构建更智能的多模态AI系统开辟新路径。