
在2019MWC之前高调宣布5G终端即将亮相后,中国联通随后又发出大招。2月21日,中国联通与网宿科技共同出资成立的云际智慧科技有限公司正式揭牌。正如云际智慧董事长温宁瑞在发言中指出的,云际智慧的成立既是联通混合所有制改革的新成果,也是发力5G的重要举措。
据悉,云际智慧于2019年1月29日核准成立,注册资本5亿。其中,网宿科技持有42.5%的股权;联通创投持有42.5%的股权;网智通持有云际智慧15%的股权。温宁瑞表示,云际智慧将专注于CDN(Content Delivery Network,内容分发网络)、边缘计算等领域的技术创新,为4K、8K、VR等超高清视频产业,以及人工智能等领域提供CDN以及边缘计算能力,致力于成为5G时代边缘计算能力的提供者,AI时代智慧生活的服务者。
为什么是CDN&边缘计算?
2018年,中国联通成立5G创新中心,面向新媒体、车联网、工业互联网、教育、医卫等10大垂直行业,赋能行业数字化与信息化转型。2月4日,2019年央视春晚首次通过5G网络向全国传播分会场节目,实现了井冈山、长春、深圳三地画面4K超高清视频实时回传直播。即将到来的5G与超清/互动视频、物联网、AR/VR、大数据人工智能的融合,将会创造出三大应用场景:超大移动宽带、海量机器类通信和超低延时高可靠传输,这三大应用场景都需要大量的边缘计算。
据IDC数据显示,预计到2020年,全球将接入超过500亿的终端与设备联网,企业物联网目前占总联网终端市场存量的52%,超过40%的数据要在网络边缘侧进行分析、处理与存储。“很显然,边缘计算已经成为CDN服务商下一场角逐的关键点。 TrendForce最新预测显示,边缘计算产品和服务市场在2018年至2022年将以复合年增长率超过30%的速度增长,这一增速或有望打开千亿级美元的市场空间。”温宁瑞说。
着力打造5G时代下的新一代CDN及边缘计算能力也完全契合中国联通发展的需要。云际智慧的成立,是中国联通构建新一代智能化网络的重要战略部分。通过运营商基础网络与CDN的紧密结合,将极大的促进互联网内容及应用的创新,加速赋能产业发展,推动企业数字化转型升级。
三个竞争优势
成立合资公司的目的应该是强强联合,双方均拿出优质资源支撑云际智慧的发展,在温宁瑞看来,CDN是边缘计算的一部分能力,其与生俱来的边缘节点属性,令CDN服务提供商在边缘计算市场具备先发优势。而网宿科技可以利用其在CDN业务中积累的技术、产品、运营经验,全力支持云际智慧的发展。
“云际智慧的第二个优势是根植于中国联通智慧化网络转型。”温宁瑞说。据悉,云际智慧将作为中国联通唯一的商用CDN产品运营支撑平台,将充分整合联通的基础网络、全国的营销服务体系以及网宿在CDN领域领先的技术研发和运营能力,着力打造新一代的CDN网络应用基础设施。通过CDN节点下沉,让内容及应用更靠近用户,将CDN和计算扩展到边缘,面向5G时代,打造出最具市场竞争力的CDN及边缘计算服务。“近期我们在惠州的测试显示,通过CDN节点下沉,TCP时间缩短了71.1%,首屏打开时间减少了30.8%,下载时间减少了42.8%,大大提升了用户的使用感受。”
云际智慧的成立是联通混改战略中具有突破意义的一次的尝试,所实行的创始人制度和股权激励机制,能够充分聚集人才,并激发其积极性,实现自主创新,驱动发展。在温宁瑞看来,这也是云际智慧的核心竞争力之一。
谈及未来,温宁瑞表示,在中国联通进行网络转型探索过程中,云际智慧的CDN能力将与联通的边缘云紧密结合,以“边”为触点,实现“云、网、边”协同的一体化服务体系,赋能垂直行业。同时,云际智慧还将充分发挥“边”的能力,使网络能够更主动、快速、灵活,以适应5G时代业务发展的需要。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。