风河公司近日宣布,推出业界首个商用运营商级全集成和虚拟化软件平台 Wind River Carrier Grade Communications Server。该解决方案专门用于部署 NFV (Network Functions Virtualization, 网络功能虚拟化 ),可与现有网络无缝集成。
风河公司通信业务部总经理Mike Langlois说:“运营商级网络正在朝着功能完全虚拟化的方向演变,而这一演变的核心则是能够轻松实现应用虚拟化,同时保持运营商级解决方案核心特性:可用性、可升级性、安全性以及管理的平台。目前有很多提供企业IT解决方案的公司都自称能够提供NFV解决方案,但是如果不能提供运营商级的能力,就不是真正意义上能够实现NFV的产品。而运营商级性能一直是风河公司DNA的一部分。”
作为一个完整的NFV解决方案,Wind River Carrier Grade Communications Server将使运营商真正能够将其网络迁移到NFV架构,同时保持其广为认可的运营商级特性。用户可以非常方便地部署、使用NFV应用,从而把握NFV带来的新机会,领先一步迎接未来竞争挑战。
Wind River Carrier Grade Communications Server由电信专家开发而成,以Wind River Open Virtualization为基础, 采用Wind River Linux、经过优化的实时基于内核的虚拟机(KVM++, Kernel-based Virtual Machine) 、OpenStack®运营商级增强功能, 以及Intel® Data Plane Development Kit (Intel DPDK) 加速vSwitch 技术。
作为电信行业的一项硬性要求,运营商级性能对于运营商和服务提供商至关重要。原因在于,如果他们无法满足以下要求,他们就无法部署应用:
• 保持现有5个9或者6个9级别(99.999 至 99.9999%)的可用性,确保每年的停机时间不超过30秒。
• 通过现有OSS/BSS/NMS系统管理应用。
• 提供高水准的可升级性,特别是可将新的设备作为物联网的组成部分添附到网络之中。
• 达到其通过原有非虚拟化应用业已为用户实现的服务级协议(SLA,Service Level Agreement)性能和安全性要求。
NFV的一项主要价值是能够在商业现货(COTS, Commercial Off-the Shelf)硬件上运行原本属于虚拟机上专用的软件。Wind River Carrier Grade Communications Server针对HP ProLiant服务器以及Intel® Communications Infrastructure Systems Xeon® 处理器进行了优化,并在其上运行。此外,风河还与惠普合作在 NEBS (Network Equipment Building System ,兼容网络设备建立系统 )的HP ProLiant 服务器上对风河通信软件进行了认证。
风河大力倡导标准化和开放性,积极为ETSI NFV Industry Standards Group做贡献。过去几年中,风河积极与领先的电信设备企业以及服务提供商就NFV和云计算概念验证展开合作。在NFV Industry Standards Group正式设立之前,风河曾经是英国电信公司发起的早期NFV概念验证计划的主要贡献者。
作为部分用户的提早试用版本,Wind River Carrier Grade Communications Server定于2014年1季度推出。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。