微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 大话“东数西算”(下)

大话“东数西算”(下)

2022-04-27 11:58
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2022-04-27 11:58 孙封蕾

中篇的《大话“东数西算”》里,介绍了“东数西算”里的数,数据的不同,资源调度的时候,就产生了分别,当然,东数西算在今天得以进行,更重要的是有了网络的强大。

小美:网络已经今非昔比,我们都感受到了上网速度的变化,那您说说,这网速的变化,技术在发生什么样的变化?

悟空博士:今天的网络能力正在逐渐提升,尤其是骨干传输网络能力的不断提升,互联网骨干直连点及互联网交换中心带来的网络扁平化架构,海量数据传输需求能够得到保障,使得东数西算成为可能。

小美:悟空博士,网络扁平化架构,跟互联网有关系吗?

悟空博士:网络扁平化的同时,互联网业务架构也在逐步调整。互联网应用及技术架构的不断成熟,适应“东数西算”架构的应用层出不穷。互联网应用也在以最低成本为核心进行重新的架构调整,在最便宜的地方存储、最便宜的地方计算,互联网本身也在适应这种变化,最优化的调度数据和算力已经成为根植于互联网系统的设计基因。

小美:也就是说,互联网架构也在“自适应”应用的发展,这样的演进继续下去,“东数西算”对我们大家以后的生活有什么改变?

悟空博士:对大家而言,技术是无形的,但真真切切感受的就是,计算更便宜了。

西部算力低廉的成本摊薄了整体算力成本,算力成本的降低是普惠算力的第一步。

小美:什么叫做普惠算力?

悟空博士: 就像大家对电的认知一样,我们用电来照明,用电来作为各种用电器的能源,而不会太在意电的价格,这就说明,电成为普惠资源。算力,也会有一天像电一样。

小美:电可以插上电源就有了,那普惠算力怎么来享受到?

悟空博士:计算成本的降低,会通过算力服务的价廉来感受到。

算力便宜了,基于算力的服务会随之降价,降低了算力的准入门槛,普惠的算力资源,吸引更多新入者进入,让竞争更为充分,覆盖更为广泛的数字经济发展奠定了更为良好的基础。

小美:算力服务价格更加低廉,那是不是价廉的同时,能不能与“质优”兼得?

悟空博士:就像上世纪八九十年代,还会经常停电,用蜡烛,电还不稳定,但今天电已经没这个问题了,说明电已经“质优价廉”了。算力和电力同样,正在走和电力一样的发展路径,质优价廉的算力日后会成为可能。

小美: 算力走上“质优价廉”的过程中,东数西算是什么作用呢?

悟空博士:“东数西算”是对全国一体计算能力的顶层布局和科学规划,为未来的大计算系统搭好了骨架,奠定了今后的发展基础。未来算力的扩容,也将依托这个顶层设计,来高效、高质量的实现,是应对未来海量算力需求的根本性保障。以后享用到“算力”,就像今天用电一样方便且便宜。

小美:东数西算看上去很美好,那难点是什么?是“算”难,还是“数”难?

悟空博士:“算”和“数”其实都还有问题,都还没有那么完美。其背后核心问题其实是隐藏在“算”和“数”背后的“网”。

“东数西算”最重要的还是要将算和数连接起来,而这既需要计算技术与网络技术协同的“算网融合”,也需要分布式数据存储、分布式数据传输之间的高效匹配。网络技术才是这背后的核心。

小美:“网”发展到5G了,仍然不够好?

悟空博士:网络能力的提升,制约着“算”和“数”的发展,网络能力是永恒的主题,可以说多大的带宽都能迅速被海量数据传输迅速塞满。

网络能力将在未来相当长一段时间内,都是东数西算的重要瓶颈,而这不但需要网络核心、算力核心的统筹布局,也需要运营商网络间更为扁平的互联互通架构。

小美:下次,我们可以就“网”的问题,再好好说说。

分享至
0赞

好文章,需要你的鼓励

孙封蕾

Leila
潜心研究算力,抓住每一束光。
推荐文章
  • 奖励设计:让AI学会智能使用工具的关键
    2025-04-23 17:39

    奖励设计:让AI学会智能使用工具的关键

    想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。

  • ToolRL:奖励设计是工具学习所需的全部
    2025-04-23 17:34

    ToolRL:奖励设计是工具学习所需的全部

    想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。

  • X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御
    2025-04-23 14:08

    X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御

    想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。

  • "思考操纵":用外部思考让大型推理模型更高效
    2025-04-22 16:43

    "思考操纵":用外部思考让大型推理模型更高效

    想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-