
上篇的《大话“东数西算”》里,说到了东数西算是一种数据和计算的资源调配,但这种资源调配,和“南水北调”、“西气东输”又是大不同的。
小美:资源平衡可以理解,但数据的动态平衡,是啥意思来?
悟空博士:大家不能简单的理解为东部的数据都要拿到西部去计算。如果这样简单看,没毛病,但并没用厘清“东数西算”的大规划。数据的动态平衡是要先分清楚数据的分类,以此为基础,来理解东数西算了。
小美:悟空博士,那你快来说一说,数据怎么分类?
悟空博士:数据也有很多分类,从应用角度来看,数据可分为热数据和冷数据。热数据就是需要频繁访问,对计算实效有较高要求的数据,比如我们点外卖,当然需要系统及时的响应,那么这个数据就是热数据。简单理解,就是我们经常用到的数据。
小美:有热,就有冷吧?
悟空博士:对,还有一部分就是冷数据,我们偶尔访问一下,对计算的时效性要求并不高,比如我们归档的电子邮件,偶尔想起来时候才会去看一眼。
小美:我知道了,冷数据和热数据既然是按照平常用的应用频率来区分的,那么,这样的区别,具体在“东数西算”中如何体现?
悟空博士:东数西算中的“数”,要看的是冷数据和热数据之间的平衡,热数据尽量留在距离用户近的东部,而冷数据则运到距离用户较远的西部,数据的动态平衡,放在这里,就是要随着数据的冷热进行动态的平衡。
小美:这种动态平衡延伸开来,也会引发一系列效应吧?
悟空博士: 是的,算力在寸土寸金的东部自然要更贵一些,而在自然资源丰富的西部则更具价格优势。但成本同样需要考虑到,数据往返运送所涉及到的网络成本,以及往返的时间成本等。
小美:东数西算是全国一盘大棋,考量的会更多吧?
悟空博士:对头,东数西算既要考虑算力成本,也要考虑往返的网络成本以及时间成本,是结合成本考量后的平衡布局,确保相关数据的计算能保持一个成本最优解。
当然,“东数西算”实现的是更大意义上的平衡。西部的数字经济也会随着算力中心的潜移,而最终受益。
小美:西部能够接收东部的数据,说明西部也有一些条件是适合来接收的,这其中有哪些契机。
悟空博士:电力成本、土地成本、人才成本放在西部,就降低了许多,因此,西部的算力就比东部的整体算力成本低,是弥补东部算力不足的划算选择。这些都是大家很容易想到的理由。
小美:那肯定还有很多大家不容易想到的理由了。
悟空博士:首先,技术是最不容忽视的,跟以往的资源调度所不同,“东数西算”之所以能提出,因为有了新的契机:网络能力逐步提升,互联网架构也在调整,这些让“东数西算”成为可能。
小美:过去的网络不能实现这样的传输吗?
悟空博士:过去的网络传输能力还是有点“心有余,力不足”。传输海量的数据,需要有强大的网络。
曾经有一个段子,亚马逊为了计算处理数据,公司用货车拉硬盘到数据中心来处理,而不是像想象中的那样用“云”。
小美:原来还有这么一回事啊,下次咱们继续说。
作者:
中国信通院云大所副总工程师 王蕴韬
科技行者执行总编辑 孙封蕾
大话“东数西算”
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。