1月17日,国家新闻出版署公布了新一批国产网络游戏版审批结果,网易增报的《逆水寒》移动端版本(即《逆水寒》手游)顺利过审获得版号。

图1:逆水寒手游官方微博截图
据官方介绍,《逆水寒》手游虽然基于被誉为“会呼吸的江湖”的同名端游,但手游却又因为拥有自由度更高、想象力更飘逸、江湖感更浓郁、武功战斗更热血、社交联系更紧密的独特游戏乐趣及体验而与PC版的端游截然不同。
《逆水寒》手游由网易最大单品研发团队开发,团队有超过400人,目前未正式上线就已消耗超过7亿预算,或将打破国产游戏上线前研发费用的记录,可谓网易2023年绝对的“超级项目”。

图2:去年高通骁龙发布会逆水寒手游技术人员上台演讲
网易如此孤注一掷并不难理解——只为当下火热的开放世界品类中杀下自己的市场份额。随着近年来开放世界爆款的出现,这一品类已经逐渐成长为国内年收入规模数百亿元、全球千亿级别的超级品类。
《逆水寒》手游无疑有望在未来分到其中很大一块蛋糕:游戏已经于去年国庆期间完成首次小规模线上技术测试,玩家口碑反响异常热烈,测试成绩异常优异,打破网易游戏内测的多项纪录。首测测试服TapTap评分高达9.1分,TapTap总评分达到8.4分,预约超过100万。

图3:逆水寒手游TAPTAP介绍页截图
据逆水寒手游官方公告显示,首测结束时逆水寒手游全平台预约数(包括官网、TapTap、渠道等)就已突破1000万。

图4:官方贺图,取自逆水寒手游官网
这样的成绩,可谓“后MMO时代”的一枝独秀。据首测玩家反馈,《逆水寒》手游中8大区域有超过1600个谜题,塑造了一个极其宏大的开放世界。虽然开放世界这一概念并不新奇,但目前看来《逆水寒》手游无疑是将传统武侠、MMO、开放世界三者结合得最好的游戏之一。官方的愿景也是用开放世界让MMO再放光彩。
除了开放世界特色外,《逆水寒》手游团队的技术实力也十分雄厚。
依托网易的伏羲人工智能团队,逆水寒手游中搭载了超过400名超级人工智能NPC,基于NLP自然语言处理技术,这些NPC能看懂玩家随机打的字、说的话、做的行为,并做出合理反馈,与玩家演绎出一段随机但有意义的剧情。
在MMO常见的捏脸方面,《逆水寒》手游更是创新加入了“上传照片捏脸”和“打字捏脸”这两项AI自动捏脸选项,率先将AIGC深度运用到大型手机游戏中。

图5:实机演示动图,取自官网
22年11月,逆水寒手游还登上高通骁龙8gen2的夏威夷新品发布会,成为全球首款支持光线追踪的大型角色扮演游戏。

图6:夏威夷发布会公布逆水寒手游光追
游戏采用国际领先的自主知识产权图形引擎技术,已拥有“光线追踪”、“图像处理”等方面的50余件发明专利,并开行业之先河,首次在移动端游戏中实现24小时动态光照效果。结合自成一派的东方古典美术风格,辅以丰富的游戏玩法、剧情分支、人工智能技术的创意使用,打造出了栩栩如生的会呼吸的江湖。
游戏预计23年年内正式上线,这款今年率先拿到版号的网易“超级项目”究竟能在开放世界市场中搅起什么样的风云?让我们拭目以待。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。