据国外知名调研机构MarketsandMarkets发布的最新研究报告,全球CDN市场规模将有望从2011年的21亿美元增长至2017的74亿美元。根据赛迪顾问2012-2013年度《中国CDN市场发展研究报告》中的数据显示, 中国2012年度CDN市场规模达到30.4亿元,同比增长31.6%,仍然保持较为稳定的增长态势。
2013,网宿勇拔头筹
日前,中国CDN及IDC综合服务提供商——网宿科技,得益于云计算、移动互联网的推动,网宿科技的业务量呈现持续增长的态势。2013年前三季度,公司营收8亿元,同比增长44%;营业利润1.4亿元,同比增长148%。
翻开网宿科技的客户名录,国内数得上名头的互联网企业、电商大头都已囊括其中。而与亚马逊AWS的战略合作,以及新技术方面的不断突破,占据移动互联网内容加速制高点等举措,更扩大和拓展了其用户群体和服务模式,网宿在CDN行业广阔的市场前景可见一斑。据悉,CDN和IDC是网宿科技主营业务,而CDN占据了总体业务量的74%。
根据赛迪顾问2012-2013年度《中国CDN市场发展研究报告》中的数据显示,通过对专业CDN服务企业之间的总体业务营收规模进行对比,网宿以41.2%的总体营业收入,以及,网宿占总体市场峰值带宽容量42.9%的双优成绩,目前领跑专业CDN服务企业。
网宿科技就这样“悄悄“地登上了国内CDN专业服务商之首。
“我们只是闷头做技术…”
“作为技术型企业,我们只是闷头做技术。”在被记者问到“为什么业绩这么好?”的时候,网宿科技副总裁刘洪涛只是淡淡的如此回答。
提到网宿对技术的坚持和重视,这里有一个关于亚马逊AWS的故事。2013年,国际巨头亚马逊AWS(Amazon Web Services)云服务正式入华。网宿科技透露,其实亚马逊选择中国合作伙伴的过程,长达几年。从2010年初开始到现在,中间过程非常曲折。他们当时给合作方列了一个表,对方能满足要求的打“勾”,不能满足的打一个“叉”。作为一家执着于技术的企业,网宿科技与亚马逊的初衷一致,对能实现的技术和功能精益求精,对业务范畴外的技术选项实事求是,赢得了亚马逊的赞赏和青睐。
据悉,经过近3年的来回商谈与实践,亚马逊AWS与网宿科技最终达成战略合作,网宿科技成为亚马逊AWS在华CDN服务的“优选供应商”,为亚马逊AWS中国客户提供CDN加速服务。
2014,发力移动互联网
4G牌照的颁发以及智能移动终端的兴起,为中国移动互联网带来了巨大的发展,也为更多的互联网企业带来了巨大商机。如何让CDN网络延伸至最后一公里——移动终端到骨干网络之间的传输路径,从而帮助企业大幅提升移动互联网的网络体验,是网宿科技一直在潜心研究的技术方向。
就CDN而言,传统互联网和移动互联网有很大不同。传统的CDN对于固网的用户接入,只需要解决中间骨干网传输的环节,就可以解决主要的问题。而移动互联是在固网基础上的延伸,其网络环境更为复杂,处于2G、3G、4G以及WIFI多网络环境并存的状态。传统CDN对移动互联网 “最后一公里”的效果提升不是很明显。可以说,家庭宽带用户最后一公里永远都是很宽的,但是手机用户的最后一公里,受限于网络环境以及基站传输等过程,挑战非常大。网宿在这块下足了功夫,并取得了技术上的突破。2014年一季度,网宿科技将推出专门针对移动互联网的解决方案,其不仅可以对各种APP应用实现加速,而且可以极大的优化和提升移动互联网的访问体验。
另外,在市场规划上,网宿将继续提高在传统互联网行业的市场占有率,同时,进一步开拓政府、企业、运营商以及海外市场。
刘洪涛表示,对于未来网宿是有信心的。公司将继续以原始和集成的核心创新技术,提供个性化行业解决方案,突显差异化服务模式,继续引领国内CDN行业的发展。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。