豌豆荚今天正式上线了「关注」功能。该功能通过达人、媒体、厂商等运营平台组成关注源,持续地在豌豆荚中为用户推荐优质内容。
目前已有上百个关注源入驻豌豆荚,涉及应用、游戏、视频等多个领域。用户可以根据个人喜好,在豌豆荚内关注感兴趣的关注源并直接进行内容消费。同时,豌豆荚于今日上线了 #知道不知道# 活动,帮助用户在简单、有趣的互动体验中选择自己喜欢的关注源。
百位达人、媒体和厂商入驻豌豆荚
「关注」功能汇集了上百个由媒体、达人和厂商组成的运营平台,帮助用户在应用、游戏和视频领域持续发现个性化内容。
用户登录豌豆荚后,在首页上点击「推荐关注」标签页,即可根据自己的喜好选择感兴趣的关注源。之后,豌豆荚首页将变成用户发现个性化内容的途径,在「我的关注」标签页中能看到自己选择的关注源持续更新的内容,而豌豆荚依据算法和编辑选择推荐的内容依然可以在「探索发现」标签页中找到。
图 左: 点击「推荐关注」标签页,根据喜好选择感兴趣的关注源
图 右: 在「我的关注」标签页中找到自己选择的关注源持续更新的内容
所有上线的关注源都必须能持续为用户推荐优质内容,其中很多都是广受欢迎的知名媒体和厂商,如应用领域中的最美应用,游戏领域中的拇指玩、任玩堂和视频领域的搜狐视频。同时还有多位公认为电影、美剧、动漫、游戏、旅游、摄影、美食、健身等领域的达人入驻,包括脱口秀译者 @谷大白话 、知名游戏人 @祝佳音 和影评人 @直桃桃淘电影等人。
为了满足不同用户的偏好,关注源中既有大众媒体或厂商,如搜狐视频、周末画报、豆瓣等、也有专注小众内容的平台,如 AnimeTaste 、Vice 等。
图: 关注不同类型关注源,发现应用、游戏、视频等优质内容
这些媒体、达人和厂商入驻「关注」,带来了各自领域中最优质的内容,这些内容无疑会激发用户的兴趣,并刺激用户产生更多的内容消费行为。
同时,豌豆荚今天上线了旨在通过35个有趣的话题,让用户更了解关注功能,发现更多内容的名为「知道不知道」的活动。
图: 豌豆荚「知道不知道」活动首页
直达行动的个性化内容发现形式或成趋势
“豌豆荚一直在对用户的内容发现和消费的体验进行优化。”豌豆荚联合创始人、CEO王俊煜表示:“我们希望在全面准确内容库的前提下,同时用优质且个性化的内容满足不同用户的需求,而且这些内容都可在豌豆荚内直接消费,打破长期以来用户对内容的发现和消费长期以来处于割裂状态。『关注』功能就是可以满足这一设想的功能。”
在进入移动互联时代的今天,用户在 PC 端上常用的如关键词搜索等方式已经无法满足移动端用户发现和消费内容的习惯。而现在移动端平台的推送方式容易造成信息过载,使用户不能有效得获取自己最感兴趣的内容。
「关注」功能,让用户先基于个人爱好进行选择,之后为他推荐的内容均是围绕兴趣展开,这种个性化的内容发现模式,能帮助用户更有效得发现,也更适合移动端的用户习惯。
同时,即便在移动端上,每个用户对内容的发现和消费长期以来处于割裂状态,往往通过媒体或公众号发现内容,再到应用商店或视频网站等渠道上搜索再消费。
现在,「关注」直接接入用户最感兴趣的关注源,让用户在豌豆荚这一产品内便可完成从内容发现到消费的一站式无割裂体验。
据艾瑞网 2014 年的统计数据表明,豌豆荚的月度人均使用次数一直稳居同类产品第一, 平均每月每位用户使用豌豆荚 14.5 次。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。