
CNET科技资讯网 1月3日 国际报道:每一年的CES(国际消费电子展),我们都能从拉斯维加斯收获惊喜,在去年的展会上,三星带来了超级冰箱。今年一月初,没有哪里比这个展会更适合谈论5G技术了。爱立信北美科技部负责人格伦·拉达伊(Glenn Laxdal)表示:“5G将成为一项至关重要的技术,它将成为本届CES展会上所探讨的众多技术的基础。”
作为当下最受追捧的技术,5G到底是什么?简单说,5G就是下一代(或者说“第五代”)无线技术。理论上,5G的速度将会无与伦比的快,而且反应敏捷、可靠且无处不在。举例来说,5G环境下载整个《辛普森一家》剧集合集(共600多集)的时间,与看其中一集的时间(20分钟左右)差不多。5G将有望成为其他几大行业热门趋势的核心基础,从无人驾驶汽车到物联网,你很可能会听到科技圈纷纷谈论5G的好处。
去年底,Verizon Wireless无线公司表示,它将是第一个进行5G实地试验部署和商业部署的公司。美国电话电报公司(AT&T)紧随其后。而且在2016年12月早些时候,AT&T正在德克萨斯州奥斯汀为一位商业用户进行5G试验。
那么问题来了:5G技术可能在近几年内并不能真正实现,可业界为什么对此如此兴奋呢?
Verizon在2017年初或将保持低调,这是该公司的传统作风——除了在2011年举办的那场标志着其4G LTE网络首次亮相的引人注目的发布会,Verizon过去都跳过了每年绚丽迷人的CES大会。不过,一旦其5G网络技术足够成熟,可以进行探讨,那么历史可能会再次重演,Verizon或将再次大张旗鼓地举办一场发布会。
不过,这并不意味着其他无线运营商也会保持沉默。AT&T将随着CES在拉斯维加斯的开幕开启其年度开发者大会,并畅谈5G技术。
AT&T无线网络架构和设计高级副总裁汤姆·基斯利(Tom Keathley)虽然不会对该公司在CES展会的具体计划发表评论,但他表示,5G将在本次展会中发挥重要的作用。
当然,在展会上我们也会听到更多关于5G技术的基础——LTE发展进程的消息。
5G也将成为高通CEO史蒂夫·莫伦科夫(Steve Mollenkopf)的CES展会主题演讲的核心。他将阐述5G的社会和经济效益,同时也将和与会的其他行业领导人一同展示5G将如何影响移动之外的各个领域。他的目标是:开始将5G推向主流。
总的来说,我们将从莫伦科夫的演讲中听到这一主题:“5G将成为未来十年乃至更久远的未来的统一连接架构。”
与此同时,爱立信将在下一代无线技术上投入更多,其CES展台将铺天盖地全都是5G网络基础设施。届时我们将看到30多种演示,包括如何在5G网络上更加快速地实现媒体传播,如何让城市变得更加智能,如何将5G技术用于关键设备的远程控制等。
在此前的展会上,爱立信为我们展示了一个虚拟现实平台,允许用户远程控制一个1550英里以外的巨型挖掘机。当时是在4G网络上运行,它有点缓慢,而且在响应上有明显的滞后——5G将有望解决这些问题。
这些演示代表了5G的终极愿景,不过它们也非常遥远。目前,业界还未就5G的标准达成一致,而乐观估计,这一标准的形成时间最早在2018年。
大部分关于5G的讨论一直关乎于所谓的固定移动宽带理念,也就是说,它或将取代连入我们家中的物理网线 。这意味着,未来将不会再有宽带安装工人来你家墙壁上打孔,把网线电缆接入你的客厅了。
基斯利表示:“未来将有更多关于5G试验的信息,我们将见证着它的发展。”
Verizon表示,公司将于明年年初在特定城市进行类似的5G试验。
虽然固定移动宽带理论听起来很不错,但现在我们谈及5G所带来的功能只是冰山一角。那些真正酷炫的东西,我们将在CES大会上得知,而它们在未来几年内还不会到来。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。