
CNET科技资讯网 9月29日 北京消息(文/周雅):华为昨天携手中国联通在北京正式发布业界第一个基于微基站的移动网络能力开放白皮书。
"4G基站目前已经突破200万个,网络价值不止在连接,而在于它本身传递和制造的一些信息、以及灵活的业务和交付能力,都蕴藏着巨大的潜能",中国联通网络技术研究院落负责院长迟永生表示,因此,合理的开发和挖掘运营商移动网络深层能力,可以更好的适应移动新业务发展应用,这也是这个白皮书重要的来源。
华为Small Cell产品线总裁彭红华介绍,华为做微型化的基站,一个初衷就是为了提升网络质量,特别是很多目前在传统网络无法覆盖到的室内密集场所,所以,增强用户体验是重要的解决方案。比如华为仅用了三个月的时间,就完成了T3航站楼的部署,使整个联通网络数据流量在18个月内增长数十倍。
《微基站能力开放白皮书》阐述了愿景、开放内容、逻辑架构、能力开放的演进及典型应用等内容:
1、通过对微基站能力开放的探索,打造开放、弹性、协作的生态系统,推动移动网和互联网的能力互动和数据互动。
2、通过网络基础设施、网络数据信息和多样化服务的开放,将微蜂窝网络资源与信息技术和互联网相结合,同时构建新的商业生态系统,将能力转化为业务和服务并货币化,拓展用户业务体验的开放内容。
3、首次提出C-BOX(Connectivity, Control, Computing, Cloud and Convergence – All in one Box)微基站网络能力开放架构,具备微蜂窝网络与业务平台的连接性、移动基站的汇聚能力、网络数据的计算能力、云架构及能力开放控制节点功能。
4、明确阐述了移动蜂窝网络能力开放的演进分三个阶段。
阶段一:开放定位及位置信息服务、业务本地化和视频业务加速典型服务能力探寻新商业模式。华为公司与中国联通基于位置能力开放的智慧商场解决方案已经成功走出第一步,并于2015年由山西联通“居然之家”获得ETSI 颁发的“MEC最佳实践奖,这也是国内运营商首获此殊荣。阶段二:通过对网络架构的微调和对网络设备的小范围改造,定义移动通信网络能力的封装,标准化封装能力面向移动网络基础设施和应用业务的API接口(API:Application Programming Interface),构建微基站能力开放服务平台;阶段三:借助虚拟化、云计算和高性能硬件的技术成果在设备、软件、架构层面重塑移动通信网络,增厚网络可开放能力,形成完整的基础设施、平台和业务三层服务。
为什么从微基站这块做突破口?中国联通网络技术研究院无线技术研究部主任冯毅解释,原因有三:
第一,因为它部署比较灵活,更贴近用户。第二,它覆盖面积非常小,更加精准的针对于用户群体。第三,它能根据不同行业特点以及其他业务的需求,提供差异化服务。
中国联通对于微基站开放能力的演进路线,也有三个方面:
第一个是硬件方面,通过网络基础设施,中国联通的机房资源,包括设备储存计算以及维护的能力,将来都可以开放给行业用户。
第二个是网络数据信息方面,对于用户授权数据,包括他的位置、偏好、特征、包括他在网络上的各种数据,也可以进一步的开放。
第三种是对于一些差异化的网络服务,包括带宽、时延、QAS保障、以及平台业务等等。
中国联通希望以此为契机,打破传统网络屏障,探索实现多元化的业务和服务解决方案,推动移动通信网络与互联网应用的深度融合。通过探索微基站的开放能力,可以实现移动蜂窝网络能力和网络信息化投放,为移动通信服务产业链和所有参与方创造更多的市场机会,推动ICT产业的发展。
中国联通还宣布将联合华为、软通动力、四维图新和建飞科技,在山西、内蒙、北京、四川、湖北、重庆等地逐步开展基于微基站的移动网络能力开放试点。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。