科技行者未来,无线信号的设计权将由人类转向人工智能

未来,无线信号的设计权将由人类转向人工智能

未来,无线信号的设计权将由人类转向人工智能

2020年4月28日 16:24:10 科技行者
  • 分享文章到微信

    扫一扫
    分享文章到微信

  • 关注官方公众号-科技行者

    扫一扫
    关注官方公众号
    科技行者

由信道自动编码器生成的AI设计信号,在质量上已经远超普通工程师。

来源:科技行者 2020年4月28日 16:24:10

关键字:AI

人类为设计电信系统的时代即将结束。展望未来,人工智能技术将在电信系统的设计与操作领域发挥重要作用。为什么会出现这样的转变?答案很简单,电信系统的复杂性正在迅速提升。

通信系统的每一次迭代更新都力争提升覆盖范围、传输速率、用户支持数量并优化功耗水平。而与此同时,由此带来的工程技术挑战也变得越来越困难。为了保持创新能力,工程师们必须从前代产品内纷繁复杂的技术衡量体系中寻找新的答案。

在电信领域,复杂性因素的主要来源在于信号广播损减。这里所说的损减,涵盖一切可能恶化或者干扰通信系统从A点向B点传递信息的事物。例如,无线电硬件本身在发送或接收信号时也会产生不同程度的噪声,这就会对有效信号造成干扰。此外,信号前往目的地时经由的路径或者信道也会削弱信号强度。对于有线信道而言,这种负面干扰主要由传输线缆周边的其他线缆引发。而在无线传输层面,信号在建筑物内外的往来反射亦会产生嘈杂的失真环境。

这些其实早就不是什么新问题了。自从无线电广播刚刚诞生以来,人们就一直被此类挑战所困扰。但当下的区别在于,无线传播规模正在爆炸式增长,物联网的快速兴起也将复杂度提升到新的高度。结果就是,我们对传输速率与延迟水平提出更高的要求,因此一切有碍数据传输的影响因素也从小问题变成了大麻烦。

那出路又在哪里?我们坚信,机器学习将为我们带来希望的曙光。总体而言,人工智能(特别是机器学习)领域的突破将帮助工程师们在涉及大量数据的极端复杂场景下找到破解之道。而其他行业的切实进步也让我们陷入思考:在能够给定充足数据的情况下,神经网络(一种机器学习模型)能否设计出超越人类的通信信号?换句话说,机器能否学会如何与另一台机器实现无线通信,并保证其方案要比人工设计信号更强?

根据我们与美国航空航天局(NASA)合作开展的空间通信系统设计工作,我们相信答案是肯定的。从2018年开始,我们逐步利用NASA的跟踪数据中继卫星系统(TDRSS,也被称为太空网络)进行实验。在这套系统中,我们利用机器学习技术使无线信号能够在极端复杂的环境中实现通信。实验的初步成功表明在不久的未来,通信工程师也许不必专注于开发无线信号,而是将注意力转向构建专门负责设计此类信号的机器学习系统。

多年以来,通信工程师们发明出无数种技术以最大程度减少无线通信中存在的信号损减。例如,一种方案就是通过多个信道发送信号,避免单一信道受到的干扰影响接收端的信息读取精度。另一种方案则是使用多条天线——当信号在环境中遇到障碍物并发生反射时,天线可以沿不同路径继续接收信号。如此一来,不同信号的抵达时间即可被区分开来,有效避免了突发意外造成的干扰。然而,这类技术的出现也让接收端的设计变得更加复杂。

更要命的是,人们一直找不到彻底消除通信损减的方法,毕竟导致无线电系统与环境遭受减损的因素太过复杂。结果就是,通信工程师们只能开发出统计模型,以近似估算方式预测信道上的减损影响。此类模型也确实帮助通信工程师们找到在特定无线通信设备中设计并构建信号往来机制的总体思路,并将减损水平控制在较低水平。

然而,使用统计模型来指导通信信号设计的方法已经走进了死胡同。目前来看,原有系统已经与5G蜂窝网络等最新电信系统缠杂起来。系统过于复杂、接入设备数量过于庞大,因此为了满足当下以及未来无线系统提出的实际需求,通信工程师们必须寄希望于新的方法——例如人工智能。

这里要澄清一点,在通信系统中使用AI技术早已不是新鲜事物。军事及其他应用场景下早已出现自适应无线传输、智能无线传输以及认知无线传输等成果,旨在利用AI提高极端环境下的通信性能。

但这些现有技术的关注方向,主要集中在对无线电系统的行为调整层面。举例来说,4G LTE无线网络中就包含AI技术,当发送器与接收器之间的连接质量下降时,系统即可降低数据速率。下调数据速率可以避免低带宽信道过载以及由此引发的数据丢失。除此之外,蓝牙系统也会利用AI技术改变信号频率,旨在避免产生干扰性信号。

总结来讲,以往的AI技术主要负责变更通信系统中的设置,而非实际设计信号本身。不过时代不同了,我们的AI小助手即将探索这片全新的天地。

以我们的同事Tim O’Shea为例,他曾在2013年至2018年期间攻读弗吉尼亚理工大学博士期间研究了如何将深度学习与无线信号处理结合起来。2016年底,O’Shea与资深工程师Jim Shea共同创立了DeepSig公司,并以这项研究为基础创建技术原型。这家位于弗吉尼亚州阿灵顿的年轻企业只有一个目标——确定当前通信系统中的工程学极限,并探索神经网络能否以及如何帮助我们超越这一极限。

在进一步探讨之前,先让我们聊聊通信工程师到底是怎样设计无线电系统中负责生成待发送信号的物理组件的。传统方法一般是从统计模型起步,即首先利用模型建立起与真实情况相似的信道。例如,如果我们打算为人群密集的市区设计手机信号塔,就得先选择一套能够表达信号在建筑物密集环境下传播路径的模型。

这套模型以信道探测结果为依据,这里所说的信道探测是指在真实环境中利用测试信号进行的实际物理测量方法。以此为基础,工程师们会设计出一台无线调制解调器,负责对无线电信号进行调制与解调,借此对二进制代码中的1和0进行编码。所有设计方案都必须在模拟与实际场景下反复测试,经过调整后再重新测试,直到达到预期效果为止。这是一个缓慢而费力的过程,而且通常会给接收器中的滤波器等组件造成损害。一般来说,窄频带上的无线电滤波降噪效果较好,但宽带无线电的滤噪效果就比较差。

如何获得清晰的信号

对于比较简单的使用场景,我们的信道自动编码器已经能够设计出可与人类比肩的信号设计。在使用QAM4的正交调幅用例中,我们使用特定信号调表示四个不同符号(例如二进制下的00、01、10与11)进行数据发送。信道自动编码器能够均匀隔开这四种调制信号。在无线电发射器(左)端,每种符号的发送方式都完全相同。在穿过无线信道之后,接收器(右)收到的每一种符号都表示为一小片点云。信道自动编码器的目标是确保这些点云彼此不会重叠,避免接收端因为信号交叉而难以判断其表达内容。

但在无线信号变得更为复杂时,信道自动编码器开始显示出不可思议的创造力与解决效果。在第二个示例(QAM32方法,上方)中,系统会使用32个不同符号进行数据发送。对于这一特定信道,信道自动编码器已经意识到要想保证接收端信号的清晰度,各符号应采取不均匀的传输方式,有时甚至可以进行符号堆叠传输。虽然听起来有点不可思议,但考虑到调制信号在传输过程中会受到损减影响,最终结果表明接收到的符号几乎没有任何重叠。人类工程师绝对不会用这种方式设计信号,而实际效果就是好、就是清晰。

DeepSig公司的努力也催生出一种新型技术,即信号自动编码器,能够高效创建传输信号。该技术以串联方式对两套深度神经网络进行串联训练(一套为编码器,另一套为解码器),二者将协同充当传输信道的调制解调器。其中编码器负责将待发送的数据转换为无线电信号,并在信道的另一端(即经过损减影响的另一端)由解码器利用接收到的无线电信号重建对数据内容的最佳估算结果。

在这里,我们还要再花点时间逐步分析信道自动编码器的具体功能。自动编码器的核心是两套神经网络。大家可能听说过能够识别出图像内容的神经网络。简单来讲,研究人员会向一套神经网络输入成千上万张包含/不包含小狗对象的图像;训练完成之后,该网络的算法即学会区分狗与非狗,甚至可以从前所未见的图像中找出小狗。在这类示例当中,“狗”就是神经网络通过训练需要掌握的对象。

在这类应用当中,神经网络的训练过程其实就是识别与图像对应的输入数据特征的过程。在面对新图像时,如果图像中包含具有相似特征的输入数据,神经网络即可提供相似的输出结果。这里的“特征”是指数据中包含的某些模式。在图像识别领域,特征可以是画面内容的某个方面;而在语音识别中,特征则可以是音频中的特定声音;至于自然语言处理方面,特征则往往代表某个段落表达的情感与倾向性。

大家可能还记得,我们之前提到在信道自动编码器当中使用了深度神经网络。所谓深度神经网络,是指每套神经网络都由更多个层(通常多达数百个)组成,因此能够以远超简单神经网络的细节量处理输入数据。每个新的层,都能利用之前各层给出的结果逐步得出更复杂的洞见。以计算机视觉场景为例,简单神经网络只能告诉我们图像当中是否存在狗,而深度神经网络则能告诉我们图像中有多少只狗以及它们各自位于何处。

接下来还需要聊聊什么是自动编码器。自动编码器由机器学习先驱Geoffrey Hinton于1986年首次发明,最初用于解决数据压缩难题。在构建自动编码器的过程中,共需要两套神经网络,其一充当压缩器、其二充当解压器。顾名思义,压缩器负责学习如何根据具体类型有效压缩数据——例如,压缩PDF的方式就与压缩JPG存在很大区别。解压器则完全相反。更重要的是,压缩器与解压器无法独立运行——二者结合起来,才能实现自动编码器的基本功能。

现在,我们把这些元素全都放到无线信号当中。信道自动编码器的功能与传统自动编码器相同,只不过前者使用的编码器并非针对数据类型进行优化,而是针对不同的无线信道进行优化。自动编码器同样由两套深度神经网络组成,分别位于信道的两端,各自学习如何调制以及解调无线信号类型,从而共同构成调制解调器。结论就是,不同于以往通信系统当中使用的固定传输机制,信道自动编码器能够为无线信道提供更好的信号质量。

之前我们提到了信道探测,也就是通过无线信道发出用于测量干扰与失真情况的测试信号。这些探测结果,也将成为信道自动编码器发挥作用的关键性前提——换言之,只有获取相应结果,自动编码器才能了解信号在传输过程中面临的损减影响。例如,2.4 GHz频段内活跃度过高,可能代表着周边环境还存在着其他Wi-Fi网络;或者,如果无线电系统接收到大量测试信号回波,则表明环境中充斥着能够反射信号的障碍物。

在探测工作完成之后,深度神经网络也就做好了充足准备。首先是编码器,它通过收集自探测过程的信息将需要调制的数据编码为无线信号。这意味着发送端的神经网络已经掌握了系统内模数信号转换器、功率放器以及传输路径内反射面/其他损减因素所产生的综合影响。如此一来,编码器即可创建出更具干扰与失真抗性的无线信号,整个信号设计方案可能极为复杂、且远超传统人类工程师的基本思维。

在信道的另一端,充当解码器的神经网络也在执行类似的任务,只是方向恰好相反。在接收到信号之后,它会利用对信道内损减因素的理解努力消除干扰影响。在这类场景下,该神经网络会针对失真、反射以及其他损减因素对传输信号的序列进行反向编辑。此外,纠错技术也能够发挥作用,帮助进一步提升信号清晰度。在处理过程结束之后,解码器即可准确还原出原始信息。

在训练过程中,神经网络会根据工程师指定的优先考量指标为当前性能提取反馈结论,包括重建数据过程中的错误率、无线电系统功耗以及其他重要项目。神经网络会利用这一反馈改进对应指标,且整个过程不再需要人为干预。

信道自动编码器的一大优势,在于以相同方式对不同来源的损减因素进行统一处理。无论是接收器内部组件造成的失真,还是其他接收器给传输信道造成的干扰,都能被它一一化解。神经网络能够综合考量所有损减因素,并生成最适合当前传输条件的发射信号。

DeepSig团队认为,训练神经网络来管理调制解调器中的信号处理流程,将给整个通信系统设计行业带来巨大变革。当然,要想证明这种转变的可能性、可行性乃至比较优势,就必须对系统进行一番彻底测试。

幸运的是,NASA方面的Joe Downey与Aaron Smith注意到了DeepSig的创新思路,并就此设计出完善的测试方案。

自从上世纪八十年代初,NASA的TDRSS计划就一直在为近地卫星提供通信与跟踪服务。TDRSS本身由地面站加一组卫星共同构成,其中的卫星还与地球轨道卫星及国际空间站持续保持接触。TDRSS卫星充满中继器,负责在世界各地的其他卫星与地面站天线之间传输信号。这套系统的诞生,使得单一地面站就足以对接地球轨道中的多颗卫星。如今,10颗RDRSS卫星正不断为国际空间站、商业补给任务以及NASA的太空/地球科学任务提供服务。

在TDRSS首次上线时,航天器还在使用较低的数据速率信号,且确定信号具有鲁棒性以及强大的抗噪能力。但是,近年来的科学与人类太空飞行任务要求更高的数据吞吐量。为了满足需求,TDRSS现在可以将更多信息塞入相同的传输带宽。也正因为如此,新的通信传输机制对信号减损因素更为敏感。到2010年初,NASA对于RDRSS的需求已经极大提升,也导致工程师们很难设计出能够稳定抵御减损影响的信号传输方案。而我们的目标,就是利用神经网络降低设计工作的实施难度。

TDRSS的主要特征,在于其卫星并不执行任何信号处理工作。它们的基本任务就是从地面站或者另一颗卫星接收信号,放大该信号,而后将其重新发送至目的地。其中,对于TDRSS信号传输的主要损减因素,正好来自无线电系统自身的放大器与滤波器,以及同步信号之间的干扰失真。前文提到过,我们的传统神经网络无法区分各种干扰形式,而是将其全部视为需要通过同一外部信道进行传递的信号内容。

TDRSS提供了一套理想方案,用于测试AI技术如何在复杂的现实条件下如何进行信号设计。通过TDRSS进行的卫星通信需要面临一系列干扰因素,因此系统本身需要进行全面测试。以此为基础,我们对信号的当前表现有了深入了解,且能够通过比较快速检查系统的实际运行状态。更重要的是,这些测试不需要对现有TDRSS设备做出变更。由于信道自动编码器中已经包含有调制解调器,因此NASA可以将其部署在TDRSS设备内并随时使用。

到2018年7月底,经过几个月的准备,DeepSig团队前往NASA位于克利夫兰格伦研究中心的认知无线电实验室。在那里,他们将利用神经网络创建的信号对调制解调器进行全面测试。此项测试旨在将TDRSS系统使用的调制信号与我们的信道自动编码器系统对接起来,从而直接比较二者在广播信道中的性能表现。

在格伦研究中心,DeepSig团队与NASA的研究科学家及工程师们一道,将位于俄亥州及新墨西哥州NASA地面站的传统人工设计调制解调器替换为信道自动编码器创建的神经网络。在测试过程中,大家将TDRSS原有信号与新型自动编码器生成的信号共同由地面站传输至同一目标卫星处,而后再向下广播至另一处地面站。由于测试中使用的带宽与频率完全相同,因此TDRSS系统与信道自动编码器的性能可以准确进行直接比较。

在测试结束之后,我们发现传统TDRSS系统的误码率略略高于5%,这意味着每20比特信息中就有约1比特由于传输路径中的某些损减因素而无法正确传递到位。在另一方面,信道自动编码器的误码率则低于3%。值得一提的是,测试当中并没有采用事后纠错机制,所以得到的误码率要比实际使用时更高一些。但很明显,信道自动编码器成功将TDRSS的误码率降低了42%。

TDRSS测试只是神经网络技术的早期演示,但已经证明了机器学习算法在极具挑战性的环境中传输无线电信号时的优异表现。而其中最令人兴奋的是,神经网络确实能够设计出人们难以甚至根本想象不到的信号传输方案。换句话说,其给出的方法与任何标准信号调制思路都全然不同。这是因为自动编码器会从零开始设计传输信道——从频率、调制方式、数据速率以及各个相关方面出发,彻底摆脱人类思维的桎梏。

我们在前文中曾经提到,当下的信号设计与处理技术相当于一把双刃剑。随着系统可用数据量的增加,传统的信号调制方法也变得越来越复杂。但从另一个角度来看,数据量的增长也让机器学习方法得以蓬勃发展。其不再受到复杂无线电发送/接收设备的阻碍,双刃剑难题已经不复存在。

更重要的是:有了新的通信通道,机器学习系统能够在几秒钟之内训练出有针对性的自动编码器。与之对应,由经验丰富的人类专家组成的团队往往需要几个月才能开发出一套新的通信系统。

这里要澄清一点,目前的机器学习还无法在无线通信与信号处理领域彻底替代通信工程师。这类新兴技术只是带来了设计未来通信系统的全新可行方法,这是一种极为强大、极为高效的方法,因此值得我们在接下来的设计工作当中认真考量。

自TDRSS实验与后续研究亮相以来,整个行业已经开始对信道自动编码器技术抱有愈发浓厚的研究兴趣,并开始积极探索其潜在用途——特别是传统上难以建模的信道设计场景。在包括Asilomar、GNU无线电大会以及IEEE全球通信会议等在内的行业重要会议上,AI设计型通信系统已经成为一大热门议题。

未来的通信工程师将不再是纯粹的信号处理与无线系统设计工程师。相反,他们需要将无线工程与数据科学结合起来。当前,包括得克萨斯大学奥斯汀分校以及弗吉尼亚理工大学在内的不少高校已经开始在无线工程专业的本科及研究生课程当中引入数据科学与机器学习的相关内容。

当前,信道自动编码器还做不到即插即用。要进一步开发相关技术及底层计算机架构,研究人员们还有很多工作要做。如果要将信道自动编码器广泛普及到无线电系统当中,首先需要对其进行严格的标准化处理,同时配合专门设计的计算机架构以最大程度提升其性能表现。

以往的现实告诉我们,TDRSS系统面对的损减因素一直难以克服。而这就带来了需要思考的最后一个问题:既然信道自动编码器已经有能力在TDRSS系统当中发挥良好效果,我们有什么道理不将其引入众多其他无线电系统?没有这样的理由,也没有犹豫不前的借口。机器学习,将为我们开启那条未曾设想的通信之路!