社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

量子机器学习进展 | CCCF精选

中国计算机学会 • 1 年前 • 510 次点击  



本文从量子机器学习系统表征角度出发,建立量子机器学习系统的层次模型,聚焦国际上备受关注的量子机器学习算法的创新与应用,概括和总结了面向各类任务的量子机器学习方案,并对未来该领域的发展趋势进行了分析与展望。




量子机器学习进展




01

关键词:量子计算  量子人工智能

量子机器学习   量子算法


引言



随着量子科技的快速发展,将量子特性应用到信息科学等领域,在提高运算速度、确保信息安全、增大信息容量和提高检测精度等方面具有显著优势。量子信息已成为当前多国战略布局的重点领域。其中,量子计算作为一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式,可利用量子纠缠和量子叠加特性,在理论上实现对经典算法的指数级加速效果,并日趋成为世界各国抢占的技术高地,正引领新一轮科技革命和产业变革。


自戴维·多伊奇(David Deutsch)于1985年提出量子计算机构造理论以来,量子计算机以惊人的速度发展。在量子计算机研制方面,各国研究人员利用超导、离子阱、半导体和光学等物理方案实现了量子硬件计算机。1998年,世界上第一台量子计算机问世,使人们坚信量子计算未来将成为一种有效的信息存储和处理技术。2012年“量子优势”(quantum supremacy)的概念被提出,并在2019年由谷歌团队实现了实验验证,由此开启了量子优势的新时代。2020年,潘建伟院士团队基于高斯玻色采样模型成功构建了76个光子的量子计算原型机“九章”,进一步验证了量子优势。而今量子计算机所能拥有的量子比特数由最初的2量子比特增长到了数百量子比特,并正以可观的速度继续增长,如图1所示。这为实现更可靠、更大规模的量子计算,以及挖掘基于量子计算的人工智能应用带来更多可能性。

 


量子计算与人工智能(AI)相结合,在增强模型表达能力、加速和优化机器学习等方面可能产生颠覆性影响,有望突破人工智能领域面临的可解释性差、最优解难求等问题,量子人工智能已成为国内外重点关注的学科前沿。越来越多的研究者聚焦于将量子计算指数级加速优势、量子线路高并行计算以及强表达能力等特性应用到提高人工智能处理效率、加快系统训练速度等方面,并探索量子计算助力人工智能发展的突破口,致力于推进量子算法的实用化进程。量子机器学习作为量子人工智能领域的重要研究内容,将量子计算和经典机器学习融合,利用其潜在的量子优势,在一次计算中处理多个数据,可减少计算时间,提高机器学习算法的计算速度。在未来,量子机器学习的量子优势有望得到充分挖掘,并随着量子计算硬件容错能力的提升,通用化与大规模化的发展,量子机器学习非常有潜力应用到工程与产业中,给人工智能领域带来前所未有的变革。


本文重点关注和探索的是能在量子计算机上执行的、可解决机器学习实际任务的量子算法设计,而并非经典算法在量子计算机上的简单推广。


国内外研究现状分析



量子机器学习算法将量子计算中的并行与纠缠等特性应用于机器学习领域,针对某些特定问题,能够有效地提高经典机器学习处理巨大数据量时的计算效率和数据存储能力。如图2所示,量子机器学习算法的发展分为诞生期、发展期和爆发期三个时期。在诞生期,对量子机器学习算法的研究偏向于理论设计和分析,基于数学矩阵、物理原理的量子机器学习算法模型纷纷被提出。在发展期,随着量子计算进入含噪中规模量子(Noisy Intermediate-Scale Quantum,NISQ)时代,量子机器学习算法开始蓬勃发展。随着量子计算的快速发展,一定数量的量子机器学习算法被相继提出,研究进入爆发期,研究者们在这一领域持续探索,量子机器学习算法涉及的应用将会日益广泛。下面将分别针对这三个时期量子机器学习算法及其应用的进展做出简要概括和分析。

 


量子机器学习算法的研究最早可追溯到1995年卡克(Kak)提出的量子神经计算的概念,之后许多研究量子神经网络的学者开始关注量子机器学习模型的设计(诞生期)。1998年,史密斯(Smith)等人提出了使用量子叠加态表示量子神经网络的计算模型;2001年,阿尔泰斯基(Altaisky)提出了最早的量子感知机模型,该模型通过不同的偏振光模式实现神经网络的输入输出,用光分束器和移相器实现与经典感知机类似的权重学习。


在发展期,伴随着HHL(Harrow-Hassidim-Lloyd)算法的提出,研究者开始关注量子机器学习算法的实现,且发现量子计算的特性可以应用于无监督聚类算法和有监督分类算法的实现和优化。2014年,雷本罗斯(Rebentros)等人将量子态的密度矩阵与支持向量机的核矩阵相联系,提出量子支持向量机,实现数据的高效分类;随后Gong等人提出量子K-近邻算法,利用量子叠加态表示经典向量数据,实现了大规模数据的高效聚类,为处理大规模数据提供了科学的研究思路。此外,韦伯(Wiebe)等人还提出了通过学习系统的哈密顿量预测未知系统的量子哈密顿学习模型,为制备和测量未知的物理系统提供了重要思路。随着研究的逐步深入,研究人员发现量子计算框架可以与机器学习模型相结合,并提出了很多适用于量子机器学习的优化训练方法。2018年,Liu等人提出量子线路的梯度下降优化算法,利用Chow-Liu树模型实现量子门之间的拓扑结构,完成条纹数据的生成建模;同年,米塔莱(Mitarai)等人应用无梯度粒子群优化算法和贝叶斯优化算法实现了量子线路的参数优化,完成同心圆数据的分类以及非线性函数的准确刻画;2019年,Gao等人提出了基于主成分分析的量子降维机器学习算法,实现了在量子并行线路中压缩指数级大的高维但近似低秩的数据集,验证了量子机器学习模型可以从维数灾难中解脱出来,以解决重要的实际问题。以上算法的研究为量子机器学习方法的构造和训练过程的优化奠定了理论基础。


随着量子处理器的进一步发展,量子机器学习算法逐渐步入爆发期。2022年,谷歌团队用实验证明了NISQ量子处理器的学习优势,并指出量子系统可以从比传统实验所需数量少得多的实验中学习,他们提出并分析了三类具有量子优势的学习任务——预测物理系统、执行量子主成分分析、学习量子过程。其中量子主成分分析方法为使用含噪量子计算机对大数据降维处理、图像压缩降噪处理等提供了新的研究思路。目前,以中国科学技术大学和谷歌等为引领者的世界各国科技工作者正在积极推进量子计算的发展,布局超越传统能力的硬件与软件开发,计划在未来实现包含千位量子比特的逻辑量子比特,进而开发出可分割的逻辑量子比特模块,用十年左右的时间实现纠错量子计算机。这些研究为挖掘基于量子机器学习算法的应用带来更多可能性。


综上所述,量子机器学习算法是一类正在不断发展、改进并走向繁荣的新兴算法:它利用量子系统特有的并行计算、量子叠加、量子纠缠等特性,实现计算能力的指数级加速;受量子计算硬件资源的限制,目前量子机器学习算法主要采用混合量子-经典框架对接实际任务,可以将目前非通用量子计算硬件设备不易处理的任务交给经典设备实现,如输入数据的转换、可调量子参数的更新、输出结果的处理等。与需要大规模容错物理设备的量子算法相比,近期在NISQ计算设备上实现的量子机器学习算法可以充分挖掘现有量子计算硬件资源的潜力,解决实际应用问题,致力于实现量子优势,在计算机视觉、自然语言处理、医疗诊断等领域具有广阔的应用前景。


量子机器学习层次架构



通过总结和归纳已有研究基础和相关工作,我们认为可设计如图3所示的量子机器学习系统层次架构来呈现量子机器学习演进的技术路线。

 


原理层

量子计算是信息时代迅速发展起来的一个新兴计算领域,它的核心原理是量子力学,而量子机器学习系统的基层原理涉及初始量子系统和末态量子系统中的基础物理量、量子系统及其演化。其中,量子力学的基础物理量可以通过实验测得,可反映每个量子系统具有的各种特征。


而量子力学通过研究量子系统及其演化阐述物质和能量在微观层面的表现,并为量子计算和量子机器学习提供科学的底层计算原理。量子系统具有叠加性和纠缠性这两个重要的物理性质。叠加性,即一种粒子可处于几种状态的叠加,这为量子机器学习模型的数据编码开辟了新的思路。纠缠性,是指在量子系统中的粒子可以通过相互作用产生纠缠的关系,这种纠缠关系和粒子之间的距离无关。按照组成粒子的种类,量子系统可分为分子系统、原子系统、光子系统等。在量子器件的组建过程中,学者亦可以根据粒子种类设计基于不同粒子系统的量子计算机。目前,比较主流的三大量子计算体系包括光量子计算、超导量子计算和离子阱量子计算。


计算层

计算层包括数据信息、数据编码、量子机器学习线路模型和优化方法这四个方面的内容。


数据信息可分为经典信息和量子信息。量子计算以量子比特为基本单元传递信息。由于叠加性,量子比特可以处于叠加态,如图4所示。

 


数据编码是将经典信息转化成量子信息的编码方式,是量子机器学习算法成功执行的重要前提。在量子机器学习中,为契合量子计算机的物理特性,需要在量子系统中为经典数据寻找一种合理的量子态表征,设计一种从经典比特到量子比特的映射方法,映射方法的具体实现被称为量子态编码。常见的量子态编码包括基底编码(basis encoding)、振幅编码(amplitude encoding)和角度编码(angle encoding)等,还包括量子抽样编码、波函数编码和哈密顿量演化编码等多种编码方式。


线路模型是计算层的核心。研究者通过设计参数化量子线路、量子神经网络等方法完成量子机器学习模型的构造,通过训练模型参数达到解决问题并产生实际应用的效果。在计算层,量子机器学习线路是其算法的根本运行原理,高效的量子机器学习线路设计将直接影响算法的表现。包括变分量子本征求解器、量子卷积神经网络、量子核方法、参数化玻色采样和哈密顿量子线路学习等在内的量子线路设计模式都在不同的应用场景下取得了良好的表现。


优化方法是量子机器学习模型运算机理中的重要一环。通过对量子线路、参数进行优化提升量子机器学习的计算精度,使量子神经网络能够更好地拟合训练数据,提高模型的预测性能。常用的量子机器学习优化算法包括梯度下降、共轭梯度法、L-BFGS算法、Adam算法和量子梯度下降法等。在量子机器学习中,这些优化算法可以和量子神经网络一起使用,通过测量计算参数的梯度,然后再使用量子计算或者经典计算的方式更新参数,达到训练量子机器学习模型的目的。


应用层

应用层是量子机器学习系统层次架构的上层设计,代表了一种探索性的新型人工智能实践方案。NISQ时期的量子机器学习应用涉及生物化学分子计算、计算机视觉、自然语言处理等多个领域。


量子生物、量子化学计算使用量子计算机对生物、化学领域的分子结构进行检索、模拟和分析。在蛋白质分子的研究领域,量子机器学习模型被尝试用来预测蛋白质的折叠结构,以突破目前电子结构理论难以广泛应用于大尺度生物分子的困境。在分子模拟与结构计算中,量子机器学习可以学习分子结构和化学键信息,对分子进行构象优化与性质预测。总之,随着量子人工智能技术的发展,通过处理大量的分子动力学模拟和量子化学计算数据,量子生物、量子化学计算将给生物医药、化学材料等领域带来更多动力并推动相关产业蓬勃发展。


量子机器学习在计算机视觉方向的应用非常广泛,可用于图像处理、目标检测、图像分类等任务,以提高计算效率和模型性能,为计算机视觉领域带来新的突破。在图像处理和目标检测方面,可以利用量子态叠加的性质表征和处理图像。量子图像处理技术可在图像上进行模糊处理、去噪、增强等操作,还可以进行边缘检测、特征提取等。此外,量子生成对抗网络作为一种基于量子计算的生成模型,近年来研究进展迅速,尤其在计算机视觉领域得到了很好的应用。它使用量子门操作生成新的样本,同时利用量子并行算法加速计算,这种方法可以用于生成具有高保真度的图像和视频数据。


量子机器学习可被应用于语言模型的训练和优化,以提高自然语言处理任务的准确率和效率。例如,可以使用量子神经网络构建语言模型,并使用量子优化算法对其进行优化,从而提高模型的性能。词嵌入是自然语言处理中常用的一种技术,可以将单词或短语映射成高维空间中的向量表示。量子机器学习可以应用于词嵌入的生成和优化,例如使用量子主成分分析生成高维词嵌入向量。除此之外,量子机器学习还适用于文本分类和机器翻译等任务。未来,随着量子人工智能技术的不断发展,量子自然语言模型有望在更多领域得到应用,并成为自然语言处理领域的重要研究方向。


量子机器学习领域的科学问题与发展趋势



量子机器学习是一个备受全球关注的前沿研究方向,涵盖面广,代表性强,有许多科学问题亟待解决。本文列出了笔者认为相对重要和值得深入研究的科学问题,具体包括以下几点。


1. 量子机器学习优势极限:由于NISQ计算设备的限制,许多量子机器学习算法能使用的量子线路资源十分有限,目前阶段较大程度依赖于数值模拟实现,难以真正展现出量子算法在信息承载和计算上的量子优势。另外,一些工作通过将经典向量替换为量子态,以此将经典机器学习改进为量子机器学习,这些机器学习算法如何在量子计算机上实现,是一个潜在的问题。因此,设计一种有效的量子机器学习算法,能够在理论上充分挖掘出潜在的量子优势,并在真实量子处理器上实现这种加速,仍然是当前量子机器学习研究中一个十分重要的方向。


2. 数据编码:不同的数据编码方式会得到具有不同比特结构的量子态,这种差异在量子系统中往往会导致算法在学习过程中得到不同的决策边界,数据编码或将构成量子机器学习算法的瓶颈。同时,制备量子态本身所需要的线路资源和时间消耗也是不能忽视的问题。目前尚不存在一种能将经典信息完整映射到量子态中、且能充分体现量子信息承载优势的通用量子态数据编码方式,也还不存在能够广泛使用的公共量子数据集,因此针对量子机器学习模型的数据编码领域还存在诸多难题,值得更加深入的研究。


3. 量子神经网络设计与优化:相对于在纯量子系统中执行的完全相干训练和学习策略,基于混合量子-经典框架的量子机器学习模型更适用于当前的NISQ计算设备。然而,基于混合量子-经典框架的量子机器学习模型往往面临“贫瘠高原”的问题,这与参数化量子线路的梯度优化和初始线路的随机化过程有较大的关联。相比于在线路的初始化方法和数据的训练模式上进行改进,我们认为寻找一种更加有效的参数化量子线路模型或许才能彻底解决这个难题。然而,目前流行的量子机器学习模型中使用的参数化量子线路在量子门的选择和排布上往往缺乏合理的规范,这也是基于混合量子-经典框架的量子机器学习领域需要深入思考和研究的问题。


4. 容错量子机器学习:容错量子机器学习是指利用量子机器学习算法执行应用任务的同时,在计算过程中采用逻辑比特、量子噪声缓释等容错技术降低量子噪音干扰,以保证算法的正确性和稳定性。在NISQ计算时期,尚未有效构建起面向实际任务需求的容错量子机器学习模型。那么如何充分利用含噪量子计算的软硬件资源,研究并设计出面向实际任务的容错量子机器学习方法,成为量子机器学习实用化进程中必须突破的瓶颈问题之一。与此同时,针对容错量子机器学习展开的一系列研究将对实现更加强大的量子机器学习算法和解决更加复杂的实际问题产生重要的科学意义。


5. 量子人工智能安全:量子人工智能安全是指用量子机器学习技术为云计算、数据传输等应用提供安全保障。伴随着量子人工智能应用范围的不断扩展,通信、数据安全问题将越来越受到研究者们的重视。量子人工智能安全在未来势必成为研究者重点关注的研究领域,结合量子人工智能安全的量子机器学习模型也将在无线通信、数据中心存储、通信组网、数据安全及共享、物联网和金融等领域得到更加广泛的应用。


6. 量子机器学习应用:将量子机器学习方法应用于实际生产生活中并充分发挥其量子优势,是该领域长期关注的课题。随着量子计算技术的不断成熟以及量子计算理论的不断完善,量子机器学习将逐步进入实用化阶段,量子机器学习的应用也将逐渐面向大数据、大模型等领域,这对目前的量子机器学习来说无疑是一个必须面对的挑战。量子机器学习的研究也会推动基础学科理论、金融学等的发展,人工智能领域的许多应用都将飞速进步和创新,量子机器学习算法将有望解决应用中的一些实际问题,并进一步提升量子计算技术的普适性。

(参考文献略)



石金晶

CCF高级会员。中南大学计算机学院副教授、副院长。主要研究方向为量子计算、量子机器学习。

shijinjing@csu.edu.cn


肖子萌

中南大学计算机学院硕士研究生。主要研究方向为量子计算、量子机器学习。

xiaozimeng@csu.edu.cn


李学龙

CCF杰出会员,2021年“CCF-ACM人工智能奖”获得者。西北工业大学学术委员会副主任、光电与智能研究院(iOPEN)教授。关注临地安防体系中的人才培养、科学、技术和工程问题。

li@nwpu.edu.cn

其他作者:王雯萱   张师超 


特别声明:中国计算机学会(CCF)拥有《中国计算机学会通讯》(CCCF)所刊登内容的所有版权,未经CCF允许,不得转载本刊文字及照片,否则被视为侵权。对于侵权行为,CCF将追究其法律责任



CCF推荐

【精品文章】




点击“阅读原文”,查看更多CCCF文章。

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/160338
 
510 次点击