仅由人设计电信系统的时代即将结束。从现在开始,人工智能(AI)将在这些系统的设计和运行中扮演关键角色。原因很简单:迅猛升级的复杂性。
每一代通信系统都致力于改善覆盖范围、比特率、用户数量和功耗。但与此同时,工程方面的挑战也变得愈加艰难。为了保持创新,工程师们不得不在日益复杂的技术权衡网络中摸索。
在电信领域,复杂性的一个主要来源就是我们所说的损耗。损耗包括能够恶化或干扰通信系统将信息从A点传送到B点的能力的任何因素。例如,无线电硬件本身在发送或接收信号时会增加噪声,从而损耗信号。信号传递到目的地的路径或信道也会损耗信号。有线信道是这样,比如附近的电力线会造成严重的干扰;无线信道也是如此,例如,信号在城区建筑物周围的反射会产生嘈杂、扭曲的环境。
这些都不是新问题。事实上,从最早的广播时代开始就存在这样的问题。与以往不同的是,物联网的日益兴起推动着无线通信呈爆炸式增长。结果便是,正当对高比特率和低迟延的需求激增时,所有这些损耗带来的综合影响变得更加严重。
有办法突出重围吗?我们相信有,答案就是机器学习。AI在总体上的突破,以及机器学习在一些特定领域的突破,使得工程师能够在涉及大量数据的复杂情况下不断提升性能而不会被数据淹没。这些进展提出了一个不容忽视的问题:如果有足够的数据,神经网络(一种机器学习模型)真的能设计出比人类设计的更好的通信信号吗?换句话说,一台机器能学习如何与另一台机器进行无线通信,并比人设计的通信信号效果更好吗?
根据我们在NASA空间通信系统方面所做的工作,我们确信答案是肯定的。自2018年起,我们开始利用NASA跟踪和数据中继卫星系统(TDRSS)——又称空间网络(Space Network)——进行试验。在该系统中,我们应用机器学习实现极其复杂环境中的无线通信。这些试验的成功预示着一个可能的未来,即通信工程师将不再专注于开发无线信号,而是更专注于构建设计这些信号的机器学习系统。
多年以来,通信工程师们发明出数不清的技术来减少信号在无线通信中的损耗。例如,其中一个办法是通过多个通道发送信号,当任何一个通道受干扰时,都可复原信号。另一种办法是利用多个天线,当信号在环境中被障碍物反射时,天线可以接收不同路径的信号。这使得信号到达时间不同,避免短促的意外干扰。但这些技术也使无线设备本身更加复杂。完全地解释损耗从来都是不切实际的,因为造成损耗的无线电系统和环境非常复杂。为此,通信工程师开发了各类统计模型,可以近似估算信道损耗所带来的影响。这些统计模型为通信工程师提供了不错的想法,帮助它们解决如何为特定无线系统设计和制造设备,尽可能减少损耗的问题。
然而,使用统计模型来指导通信信号的设计并不能一劳永逸地解决问题。如今最新的电信系统,例如5G蜂窝网络,已经面临着新的问题。这些系统太复杂,连接设备的数量太多。为了满足当前和未来几代无线系统的需求,通信工程急需找到一种类似AI的新方法。
准确地说,在通信系统中应用AI并不是一个新的概念。自适应无线设备、智能无线设备和认知无线设备越来越多地应用在军事和其他领域,它们都利用AI挑战环境问题,提高性能。
但是现有的这些技术都围绕着如何调整无线通信系统的行为。例如,4G LTE无线网络采用了AI技术,当发射端和接收端连接的性能下降时,会降低数据速率。较低的数据速率可以避免低带宽信道超载,导致数据丢失。再比如,如果出现干扰,蓝牙系统中的AI技术可改变信号的频率,避免干扰。
这里的重点是,AI在过去曾被用来修改通信系统中的设置。但之前未用AI设计信号本身。
本文作者之一蒂姆•奥谢亚(Tim O’shea)于2013年至2018年在弗吉尼亚理工大学攻读博士期间,研究了如何将深度学习应用于无线信号处理。2016年底,奥谢亚与资深工程师兼企业家吉姆•谢亚(Jim Shea)共同创立了DeepSig公司,以其研究成果为基础,创建技术原型。这家位于弗吉尼亚州阿灵顿的公司的目标是,识别在通信系统中哪些人类设计达到了极限,以及研究神经网络如何工作,帮助人类突破这一极限(后面会详细介绍)。
在进一步深入之前,先了解一下通信工程师是如何设计无线设备的物理组件的,这些组件负责创建要传输的信号。传统的方法是从一个统计模型开始,该模型与要构建的实际信道相似。例如,如果设计一个用于密集城区的手机信号塔,你可选择一个解释信号如何在有很多建筑物环境中传播的模型。
该模型支持信道探测,信道探测是在真实环境中使用测试信号进行的实际物理测量。接下来工程师设计一个无线调制解调器,对无线信号进行调制和解调,进而对二进制代码的1和0进行编码,这在该类模型中性能良好。所有设计都必须进行模拟和真实的试验测试,然后进行调整和重新测试,直到其达到预期效果。这是一个缓慢而费力的过程,它经常导致无线设备设计的妥协,比如滤波器的质量。一般来说,在窄频带工作的无线设备可以很好地滤除噪声,但宽频带无线设备的滤波效果则较差。
通过努力,DeepSig实现了一种可以创建信号的新技术,我们称之为信道自动编码器。它的工作原理是训练两个串联起来的深度神经网络,一个编码器和一个解码器,一起有效地作为信道的调制解调器。编码器将需要传送的数据转换成无线信号,而在信道的另一端(即受到损耗的一端),解码器从接收到的无线信号中重建被传送数据的最佳估值。
这里我们花点时间,一步一步地讲解信道自动编码器的工作原理。自动编码器的核心是两个神经网络。你可能听说过用于图像识别的神经网络。一个简单的例子,研究人员可能会向神经网络“展示”数千张狗和其他动物/物体的图像。然后,该网络的算法可以区分“狗”和“非狗”,并优化识别未来出现的狗的图像,即使这些图像对该网络是新奇的。在这个例子中,“狗”就是训练神经网络识别的图像。
在这个应用中,研究人员训练神经网络识别与图像对应的输入数据的特征。当一个新的图像出现时,如果输入数据有相似的特征,便会产生相似的输出。所谓“特征”,是指数据中存在的一种模式。在图像识别中,它可能是所见图像的一个局部。在语音识别中,它可能是音频中一种特定的声音。在自然语言处理中,它可能是一个片段所体现的情感。
你可能记得我们说过,信道自动编码器会使用深度神经网络。这意味着每一个神经网络都由许多层组成(通常有数百个),它能够对输入数据做出比简单神经网络更为详细的决策。每一层都使用前一层的结果,获取越来越复杂的见解。例如,在计算机视觉中,一个简单的神经网络可以告诉你一个图像是否是一只狗,而一个深度神经网络可以告诉你有多少只狗或者它们在图像中的位置。
您还需要知道什么是自动编码器。自动编码器最早在1986年由机器学习的先驱杰弗里•辛顿(Geoffrey Hinton)为解决数据压缩的一些问题而发明的。自动编码器应用中有两个神经网络,一个是压缩器,另一个是解压器。顾名思义,压缩器根据数据类型学习如何有效地压缩数据,例如压缩PDF与压缩JPG的方式会有所不同。解压器的作用则相反。关键是压缩器和解压器都无法单独工作,它们需要共同实现自动编码器的功能。
现在把这些内容都放到无线信号的背景下。信道自动编码器的功能与传统自动编码器相同,但不是针对不同类型的数据进行优化,而是针对不同的无线信道进行优化。自动编码器由两个深度神经网络组成,分别位于信道的两侧,学习如何调制和解调无线信号类型,共同构成调制解调器。其要点是,与通常用于通信的那些一码通用的一般信号不同,信道自动编码器可以为无线信道创建更好的信号。
我们之前提到过信道探测,它们通过无线信道发送测试信号,用于测量干扰和失真。这些探测是信道自动编码器的关键,因为它们能让我们了解信号在穿过信道时会遇到哪些障碍。例如,若2.4千兆赫频段非常活跃,表明附近有一个Wi-Fi网络;如果无线设备接收到测试信号的许多回声,那么环境中很可能充满了许多反射面。
当探测完成后,深度神经网络就可以开始工作了。首先,编码器利用从探测中收集到的信息进行编码,将数据调制成无线信号。这意味着在这一侧,神经网络考虑到了无线设备自身的模数转换器和功率放大器的影响,以及已知的反射面和探测中的其他损耗。在此过程中,编码器产生的无线信号能够抵抗信道中的干扰和失真,开发出传统方法难以得到的复杂方案。
在信道的另一侧,作为解码器的神经网络进行同样的工作,只是过程相反。当它接收到信号时,会利用它学习到的信道信息来消除干扰的影响。在这种情况下,网络将通过逆向失真和反射以及编码冗余估算被传送的比特序列。纠错技术也可以发挥作用,帮助清理信号。在该过程结束时,解码器就恢复了原始信息。
在训练过程中,神经网络根据工程师想要优化的指标(无论是重建数据的错误率、无线系统的功耗还是其他指标)获得当前性能的反馈。在没有人工直接干预的情况下,神经网络利用反馈来提高针对这些指标的性能。
信道自动编码器的优势之一是它能以相同的方式处理所有的损耗,不管它们的来源是什么,也不管这种损耗是来自附近无线设备内部的硬件失真,还是来自另一个无线设备的空中干扰。这说明神经网络可以同时考虑所有的损耗,并产生对特定信道最有效的信号。
DeepSig的团队相信,通过训练神经网络来管理一对调制解调器的信号处理将是通信系统设计方式的一个巨大转变。我们清楚,如果要证明这种转变不仅是可能的,而且是值得的,那我们就必须对这个系统进行完全的测试。
所幸的是,在NASA,本文作者之一乔•唐尼(Joe Downey)和他的同事亚伦•史密斯(Aaron Smith)已经注意到DeepSig的想法,正在考虑这样一个测试。
自20世纪80年代早期以来,NASA的TDRSS一直为近地卫星提供通信和跟踪服务。TDRSS本身包括地面站和卫星群,并与地球轨道卫星和国际空间站保持持续连接。TDRSS卫星作为中继,在全球其他卫星和地面站天线之间传输信号。这个系统不需要建立更多的地面站来保证与卫星保持联系。如今,共有10颗TDRSS卫星为国际空间站、商业补给任务以及NASA的空间和地球科学任务提供服务。当TDRSS首次上线时,航天器使用低数据速率信号,这些信号具有很强的鲁棒性和抗噪能力。然而,最近的科学和载人航天任务需要更高的数据吞吐量。为了满足需求,TDRSS的信号在相同的带宽内塞入了更多的信息,代价是这类的信号对损耗更为敏感。到2010年左右,NASA对TDRSS的需求变得巨大,以至在不断增长的损耗之中很难设计出良好的信号。我们希望神经网络可不那么困难地独自处理这个问题。
对我们来说,TDRSS的一个关键特点是它的卫星不进行任何信号处理,只是简单地从地面站或另一个卫星接收信号,放大信号,然后重新发送至目的地。这意味着通过TDRSS传输的信号的主要损耗来自无线设备自身的放大器和滤波器,另外还有同步信号间的干扰所造成的失真。你可能还记得,我们的神经网络并不会区分各种形式的干扰,而是把它们都当作信号必须经过的外部信道的一部分。
TDRSS提供了一个理想的场景,用来测试在复杂的现实环境中AI开发信号的能力。通过TDRSS与卫星进行通信充满了干扰,但这是一个全面的测试系统。这意味着我们可以很好地理解目前的信号表现如何,也可以比较方便地检查我们的系统效果如何。更好的是,测试完全不需要修改现有的TDRSS设备。信道自动编码器已经包括了调制解调器,插入TDRSS设备就可进行传输。
2018年7月下旬,经过数月的准备,DeepSig团队前往位于克利夫兰的格伦研究中心的NASA认知无线电实验室。在那里,他们在一个实时的无线通信实验中使用神经网络产生的信号来测试调制解调器。测试的目的是将TDRSS系统使用的信号调制与我们的信道自动编码器系统同时运行,使我们能够直接比较它们在现实信道中的性能。
在格伦研究中心,DeepSig团队与NASA的研究科学家和工程师们一起,在俄亥俄州和新墨西哥州的NASA地面站,将经过验证的、人工设计的调制解调器替换为使用信道自动编码器创建的神经网络。在测试期间,传统的TDRSS信号以及我们的自动编码器产生的信号,将从一个地面站传送到一颗卫星上,然后返回到第二个地面站。由于我们使用的带宽和频率相同,因此现有的TDRSS系统和信道自动编码器所面对的环境也是完全相同的。
当测试结束时,我们发现传统TDRSS系统的误码率略高于5%,这意味着大约每20比特信息中就有1比特由于中途损耗而无法正确到达。而信道自动编码器的误码率则略低于3%。值得一提的是,为了方便进行直接比较,这些测试并没有包括标准的事后纠错。通常,这两个系统的误码率都会更低。然而,仅在这一项测试中,信道自动编码器就将TDRSS的误码率降低了42%。
这项TDRSS测试是该技术的早期演示,但它是使用机器学习算法设计无线电信号的重要验证。这些信号一定能在具有挑战性的环境中发挥作用。最令人兴奋的是,神经网络能够产生人们用传统方法无法轻易或明显想象出的信号。这意味着这些信号可能不同于无线通信中使用的任何标准信号调制。这主要是因为,针对有问题的信道,自动编码器从头开始构建信号,包括频率、调制、数据速率等各个方面。还记得我们曾说过今天的信号创建和处理技术是一把双刃剑吗?随着系统可用数据的增加,传统的信号调制方法会变得越来越复杂。但随着数据更加充裕,机器学习方法反而愈加茁壮,这种方法不受复杂无线电设备的妨碍,这说明“双刃剑”的问题已经解决了。
最重要的是:出现了一个新的通信信道后,机器学习系统能够在短短几秒钟内训练该信道的自动编码器。相比之下,开发一个新的通信系统通常需要一个经验丰富的专家团队花上几个月的时间。
很显然,机器学习不是不需要通信工程师对无线通信和信号处理的理解,而是引入了一种新的方法来设计未来的通信系统。这种方法非常强大和有效,不应该排除在未来系统之外。
随着TDRSS实验和随后研究的开展,我们看到了对于信道自动编码器的研究热情越发高涨,应用前景越发光明,特别是在信道建模困难的领域。在Asilomar、GNU无线电会议和IEEE全球通信会议等主要无线通信会议上,利用AI设计通信系统已成为一个热门话题。
未来的通信工程师们将不再是单纯的信号处理和无线工程师。相反,他们的技能需要跨界无线工程和数据科学。包括得克萨斯大学奥斯汀分校和弗吉尼亚理工学院在内的一些大学,已经开始将数据科学和机器学习引入无线工程研究生和本科生课程。
信道自动编码器还不是一种即插即用的技术。要进一步实现技术开发和完善底层计算机架构,还有很多工作要做。信道自动编码器如果要成为现有广泛使用的无线系统的一部分,必须经过严格的标准化过程,还需要专门设计的计算机架构来最大限度地提高其性能。
TDRSS的损耗是很难优化的。这就引出了最后一个问题:如果信道自动编码器能够很好地用于TDRSS,那是不是也可以用于其他无线系统呢?我们的答案是,没有理由认为不能。
作者:Joe Downey、Ben Hilburn,、Tim O’Shea、Nathan West