量子计算国内外发展现状
admin
2023-06-26 02:01:29
0
  1. 量子计算简介

2020年10月16日,中共中央政治局就量子科技研究和应用前景举行第二十四次集体学习。习近平总书记发表重要讲话,为当前和今后一个时期我国量子科技发展做出重要战略谋划和系统布局。以量子计算、量子通信和量子测量为代表的量子信息技术作为量子科技领域的重要组成部分,将为推动基础科学研究探索、信息通信技术演进和数字经济产业发展注入新功能。

量子计算是量子力学与计算机科学相结合的一种通过遵循量子力学规律、调控量子信息单元来进行计算的新型计算方式。它以量子比特为基本单元,具有量子叠加、纠缠的特性。并且,通过量子态的受控演化,量子计算能够实现信息编码和计算存储,具有经典计算技术无法比拟的巨大信息携带量和超强并行计算处理能力。量子计算的概念最早由费曼提出,1985年英国物理学家David Deutsch进一步发展了费曼的构想,通过“量子线路”方法,将经典计算机中负责运算处理的逻辑门扩展到了量子力学领域。90年代,Shor算法和Grover算法证明了量子计算拥有经典计算无可比拟的速度。从此以后,人们一直在寻找能够运行Shor算法的量子硬件,目前主流的物理实现方案包括超导、离子阱、半导体、光学、拓扑等,其中超导和离子阱发展最为迅速。

超导路线方面,Rigetti公司部署了Aspen-8(31量子比特)量子处理器;IBM实现了64量子体积,发布了65量子比特Hummingbird处理器;IBM和谷歌提出了在2021年突破100量子比特的目标;本源量子发布了6比特超导量子计算机——悟源。

离子阱路线方面,霍尼韦尔发布了6量子比特H离子阱计算机,先后实现了64和128量子体积,平均单量子比特门保真度为99.97%,双量子比特门保真度为99.54%;美国杜克大学和马里兰大学设计出了全连接的32比特离子阱量子计算机寄存器;IonQ宣布在32量子比特离子阱量子计算机上,实现预期超过400万量子体积。

半导体路线方面,英特尔与代尔夫特QuTech共同在Nature上发表论文,证明了在温度高于1K下能够成功控制“高温”量子比特1;澳大利亚硅量子计算公司(SQC)刷新了有史以来的半导体量子比特的最低噪声水平,通过将该研究成果与在1微秒内读出量子比特信息的能力相结合,实现了双量子比特门保真度99.99%。

光学路线方面,Xanadu发布了全球首个光量子计算云平台,开发者可以基于云访问Xanadu的光量子计算机,包括8量子比特和12量子比特两个版本;PsiQuantum获得了包括微软在内的1.5亿美元融资,致力于开发100万量子比特的光量子计算机;中国科大自2019年12月首次实现了20个光子输入60×60模式干涉线路的玻色取样量子计算后,2020年完成了对50个光子的玻色取样。同年,中科大潘建伟教授与陆朝阳教授及其团队在《Science》上发表名为“Quantum computational advantage using photons”的文章2,宣布其实现了76光子的量子计算机,并将该量子计算机命名为“九章”。

拓扑路线方面,微软与哥本哈根大学合作成功实现了一种重要的、有希望用于拓扑量子计算机的材料。这种新材料有可能在没有磁场的情况下实现拓扑状态,可用于实现真正的拓扑量子计算机。

量子计算物理实现方案研究取得一定进展,但仍未实现技术路线收敛。同时量子计算云平台已成为该领域最大热点,除了IBM、D-Wave、Rigetti、本源量子以及Xanadu等硬件公司已经推出了云平台服务,微软、亚马逊也在2020年正式上线量子计算云平台。


2. 量子计算相关政策

2.1 国际量子计算相关政策

(1)美国

自2002年起,美国DARPA制定了《量子信息科学与技术规划》,给出了量子计算发展的主要步骤和时间表。2016年,美国国家科学和技术委员会(NSTC)公布《推进量子信息科学:国家挑战与机遇》。2020年8月,美国白宫科技政策办公室、美国国家科学基金会(NSF)和美国能源部共同宣布将在未来五年内建立12个多学科、多部门的国家中心,其中包含5个量子信息科学中心(图1)。2021年美国白宫公布了《国家安全战略中期指导方针》,指出量子计算机和人工智能会给经济、军事、就业、经济差距问题带来广泛影响,美国“必须保持科学和技术优势进行再投资,并再次发挥领导作用”。同时,美国公布了《人工智能与量子信息科学研发摘要:2020-2021财年》。摘要显示,2020-2021财年,美国在人工智能和量子信息科学量大领域的预算增加了30%,由此可见美国政府对这两项技术的重视程度之深。




图1. 美国建立五个量子信息科学中心简介。

(2)欧洲

欧盟2016年推出“量子宣言”旗舰计划,将在未来十年投资10亿欧元,支持量子计算、通信、模拟和传感四大领域的研究和应用推广,并在2018年11月正式启动首批20个研究项目。2019年7月欧盟10国签署量子通信基础设施(QCI)声明,探讨未来十年在欧洲范围内将量子技术和系统整合到传统通信基础设施之中,以保护智能能源网络、空中交通管制、银行和医疗保健设施等加密通信系统免受网络安全威胁。

英国2015年正式启动“国家量子技术计划”,投资2.7亿英镑建立量子通信、传感、成像和计算四大研发中心,开展学术与应用研究。2018年11月进行了第二阶段2.35亿英镑投资拨款。

德国在2018年9月提出“量子技术——从基础到市场”框架计划,拟于2022年前投资6.5亿欧元促进量子技术发展与应用,并可延长资助至2028年。

2021年,法国宣布启动法国量子技术国家战略,计划五年内在量子领域投资18亿欧元。资金使用方面,其中相当一部分用于量子计算机,包括3.5亿欧元投资量子仿真系统的开发,4.3亿欧元投资未来成熟量子计算机的研究。

(3)亚洲

日本文部科学省2013年成立量子信息和通信研究促进会以及量子科学技术研究开发机构,计划未来十年内投资400亿日元,支持量子通信和量子信息领域的研发。韩国2019年计划投入445亿韩元,推出“量子计算技术五年发展计划”,用于开发量子计算机硬件等核心技术以及未来有前途的领域,包括量子计算新架构,量子算法和基础软件。

2.2 国内量子计算相关政策

2018年5月28日,习近平总书记在两院院士大会上的讲话中指出,“以人工智能、量子信息、移动通信、物联网、区块链为代表的新一代信息技术加速突破应用。”我国针对量子计算的投资、科研力度不断加大,先后启动“自然科学基金”、“863”计划和重点研发项目和科技创新2030重大专项等科研项目,推动量子计算的技术研发和产业化落地。

2016年,“十三五国民经济和社会发展规划”提到量子信息技术是体现国家战略意志的重大科技项目之一。国家创驱动发展战略将量子信息技术列入发展引领产业变革的颠覆性技术。2017年,“十三五”国家基础研究专项规划将量子计算机列为重大科技战略任务首位。“十三五”科技军民融合发展专项规划推动包括量子计算在内的军民融合重大科技项目论证与实施。2020年度国家自然科学基金委重大研究计划包括“第二代量子体系的构筑和操控”。国家基金委八大学部公布“优先发展领域及主要研究方向”:1、自旋、轨道、电荷、声子多体相互作用及其宏观量子特性。2、量子信息技术的物理基础与新型量子器件。3、新型高性能计算系统理论与技术。2021年量子信息科学被列入普通高等学校本科专业目录的新专业名单。同时,《“十四五”规划和2035年远景目标纲要》提出“瞄准人工智能、量子信息、集成电路、生命健康、脑科学、生物育种、空天科技、深地深海等前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目”,“加快布局量子计算、量子通信、神经芯片、DNA存储等前沿技术”。


3. 量子计算主要技术路线发展情况

量子计算包含处理器、编码和软件算法等关键技术,近年来发展加速,但仍面临量子比特数量少、相干时间短、出错率高等诸多挑战。目前,量子计算整体上仍然处于基础理论研究和原型产品研发验证阶段,多项关键技术仍有待突破。量子计算利用了量子态的叠加性和纠缠特性。叠加性使得量子态的初态可以制备在Bloch球面上的任意一点,相比于经典比特只能处在0和1,初态可包含更为丰富的信息;纠缠性则使得量子态所处的态空间(希尔伯特空间)随比特数增长而指数增长,极大地提高了计算的并行能力。通过构造合理的量子算法,可以将经典计算机几乎不可能完成的某些特定计算困难问题,诸如大数分解、复杂路径搜索等,在可接受时间内解决。而这些难题的解决将对密码学、大数据和机器学习、人工智能等信息领域造成深远影响。

量子计算的基本单元称之为量子比特(quantum bit, Qubit,图2)。理论上说,任何二能级/准二能级系统都可构成Qubit,比如自旋为1/2的电子或原子核、原子的基态与第一激发态、正交极化的两个单光子态等。不过,用于构造技术可行的量子计算机,对Qubit有一些最基本的要求。2000年,由IBM的DiVincenzo总结为几条基本准则3:

(1)由具有良好特性的Qubit组成的可扩展物理系统。“良好特性”意味着对Qubit物理参数的准备掌握,包括其内部哈密顿量、与其他Qubit或量子系统的耦合、与外部场的耦合、与邻近能级的隔离度等。可扩展性则是实现量子计算高并行能力的基础。

(2)能够将Qubit制备到某个基准态。进行量子计算之前,必须能够将所有的比特初始化到一个准确的初态上,因此每个Qubit必须能够被有效地制备到某一基准态(例如基态)上。另一个重要的原因是,进行量子纠错需要不断地提供低熵态Qubits(比如0态)。

(3)足够长的退相干时间(远大于单个逻辑门操作所需时间)。退相干时间描述了Qubit与其周围环境的接触强度,或者说,它描述了Qubit从纯态(量子态)转变为混态(经典态)所需的时间。退相干时间既不能太短——量子行为迅速消失,也不能太长——量子计算效率降低。为了成功地进行量子纠错,退相干时间是单个逻辑门操作周期的104~105倍。

(4)能够实现一组完备的通用量子门操作。一个有效的量子算法一般是由一组幺正变换U1,U2,U3···组成,每一个变换作用在态空间的某一子空间上。对于某一特定的物理系统,能够实现的变换数量往往非常有限,特别是对3个以上Qubits进行变换。所幸的是这些多比特门总可以转换为一系列单比特门和两比特门的组合。能够实现一组完备的量子门操作保证了能够对态空间任一子空间中的Qubits进行操作。

(5)能够对任一Qubit进行测量。在一系列量子门操作之后,最终的量子态必须能够被很好地读出。对任一个Qubit,需要准确地得到其0态和1态的占据率而不影响其他Qubits。




图2. N个经典比特,在某一时间只能存储2N个可能数据中的一个,N个量子比特,可以同时存储2N个所有可能的数据;量子存储器的存储量随比特个数N呈指数增加。

目前主流的技术路线有超导、半导体、离子阱、光学以及量子拓扑这五个方向。每种路线各有优劣势,尚无任何一种路线能够完全满足实用化要求并趋向技术收敛(图3)。目前,前四种路径均已制作出物理原型机,但量子拓扑这一微软重注的方向尚无物理层面的实现。




图3. 量子计算主要技术路线对比(资料来源:中国计算机学会青年计算机科技论坛)

目前进展最快最好的是超导方向。原因有二,其一是人类很希望借助现有先进技术促进量子计算发展,包括半导体集成、电路工艺和技术。其二是超导路径的优势是可扩展性非常强,固态器件、电学方向能够使未来的量子计算与经典的计算机相兼容。谷歌、IBM、英特尔等巨头目前都押注超导或者半导体方向。

3.1 超导量子计算发展

超导量子计算被普遍认为是最有可能率先实现实用化量子计算的方案之一。超导量子计算的核心目标是,增加所集成的量子比特数目,同时提升超导量子比特性能,从而能够高精度相干操控更多的量子比特,实现对特定问题处理速度上的加速,并最终应用于实际问题中。超导量子比特的原理是,无电阻电流沿回路来回震荡,注入的微波信号使比特激发,或它进入叠加态。

超导量子比特一般由无损耗的电路元件,包括电容、电感和约瑟夫森结组成,通过调整各电路参数的相对大小,可以设计出不同的哈密顿量,从而形成不同的能级结构4。超导量子比特也常常被称为“电路量子比特”或“超导人工原子”。与自然原子或其他微观量子体系相比,超导“人工原子”有几个重要的特点。首先,它的哈密顿量可以很容易地通过改变电路参数而进行设计,具有很大的灵活性;其次,它的量子态是由大量凝聚在基态的库伯对集体表现出来的宏观量子态,因此很容易与控制/读出电路进行耦合。第三,其第一激发态的能量一般远小于自然原子。通过合理的设计,一般选择在微波(1~10 GHz)能量范围内,以利用现有成熟的微波技术对量子态进行操控和读出。此外,构成超导量子比特的电路元件都可以通过微纳加工手段制备并很好地集成在平面电路中,因此与现有成熟的半导体工艺保持了很好的兼容性,具有良好的扩展性。从工程技术角度来看,这些特性使得超导量子比特相比其他体系而言具有显著的优势。

然而,超导量子比特也有其不足之处。超导量子态是固态器件中的宏观量子态,尽管易于操控和读出,但与之相伴的是其量子态也易于与环境发生耦合,导致相干性快速退化。最早的超导量子比特寿命只有不到10 ns的水平,尽管能够看到相干演化,但难以进行准确地操控5。如何在介观尺度固态器件复杂的电磁环境中抑制各种噪声影响,提高退相干特性成为早期超导量子电路研究的重点内容。到目前为止,超导量子比特的退相干时间已经提高至10~1000 μs量级,实现了近6个数量级的提升,现有的水平已经能够在退相干时间内进行104量级的门操作,很多人认为已经达到了平面码量子纠错的阈值。配合高保真度量子非破坏测量技术的发展,超导量子计算方案走到了构建容错量子逻辑比特的阶段6。

超导量子计算机具备芯片加工技术较成熟、系统集成度较高、可扩展性能好的优势。超导量子比特利用约瑟夫森结在低温下的非线性效应,构造出电荷量子比特、磁通量子比特、相位量子比特等。根据芯片设计思路和所选用耦合、布局扩展方式,阵列式的扩展方案实现的一维或者二维阵列,有利于实现量子算法编程,环绕式的扩展方案有利于实现最大纠缠和全耦合。实用化的量子计算面临着2个挑战,一个是扩展量子比特数目,需要同时提高退相干时间,另一个则是提高量子门调控保真度,需要在量子位的数量和量子比特的质量2个维度上不断推进。现有量子比特的芯片虽然在分解大数或者搜索算法上尚未应用,但可以用来进行量子物理模拟,在材料和生物领域发挥作用。不论采用何种耦合和布局方式,芯片的设计和加工都会变得越来越精细和具有技巧性,例如双面布线设计或者3D布线设计。

超导体系备受谷歌、IBM、英特尔等科技巨头的青睐,除此之外,还有Quantum circuits、Rigetti和国内的本源量子、北京量子院等公司和机构使用此技术路线来对量子计算进行研究。2016年12月,中科大潘建伟团队首次实现了10个光子比特和10个超导量子比特的纠缠。2017年11月,IBM首次构建了50量子比特的处理器。2018年3月,谷歌量子人工智能实验室发布的Bristlecone量子芯片,可实现72个量子比特长度上的单比特门操纵,单量子比特门最佳保真度达到了99.9%。2018年8月,Rigetti Computing宣布在开发一个128量子比特量子计算系统。2019年1月,清华大学首次利用单量子比特实现了精度为98.8%的量子生成对抗网络,未来可应用于图像生成等领域。2019年4月,中科大潘建伟团队首次实现了12个超导比特的纠缠。2019年8月,中科大实现24量子比特处理器,并进行多体量子系统模拟。2020年9月12日,本源量子公司上线了中国首个接入实体量子计算机的量子计算云平台,虽然相比于IBM目前在云平台上提供的高达50个量子比特的系统,6个量子比特只是其在2017年的最初水平,但这意味着踏出了中国量子计算应用的第一步。

3.2 半导体量子计算

量子点(quantum dot)是在把激子在三个空间方向上束缚住的半导体纳米结构。通过向纯硅中加入电子,科学家们造出了硅量子点这种人造原子,运用微波控制电子的量子态。硅的优势在于,可以利用传统的微电子工业几十年来积累的大规模集成电路制造经验。除此之外,硅量子比特比超导量子比特更加稳定,但量子纠缠数量较少,需要保持低温。英特尔量子计算的硬件研发团队负责人Jim Clarke表示,用硅制造量子比特更容易达到要求的量子比特数目。2017年开始,英特尔先后推出17量子比特和49量子比特的超导芯片,随后在2018年2月展示了一个2量子比特自旋量子计算机,它可以实现执行两个简单的量子算法的编程。英特尔还在其300毫米制程技术上发明了自旋量子比特制造流程,能和英特尔先进的晶体管技术一样,在同一个设施中制造。2019年5月,新南威尔士大学实现了保真度为98%的双比特逻辑门。本源量子成功研制半导体2比特量子处理器玄微。2020年,新南威尔士大学的量子计算研究人员在一篇论文中描述了他们如何在一个硅量子点中创造人工原子,Andrew Dzurak表示拥有更多电子的人造原子,其量子比特的强度比之前认为的要大得多,这就意味着它们可以可靠地用于量子计算机的计算工作。同年,新南威尔士大学研究人员在最新一期《先进材料》杂志上指出,他们研制出了迄今最安静,及噪音最低的半导体量子比特,为进一步研制出大规模纠错量子计算机奠定了基础7。

3.3 离子阱

离子阱的技术原理是利用电荷与电磁场间的交互作用力牵制带电粒子体运动,并利用受限离子的基态和激发态组成的两个能级作为量子比特,是一种将离子通过电磁场限定在有限空间内的设备。在应用于量子计算机中时,离子阱量子计算机相比于超导量子计算机最大的优势就是全连接性。由于使用了完全相同的、完全连接的量子位,再与精确控制相结合,所以离子阱量子计算机拥有了高质量的量子位和最低的错误率。但是离子阱难以扩展,一个离子阱里面一百多个量子比特已经是目前的技术上限,若要扩展成多个连接在一起的阱,则需要更多的技术投入,并且在可操控性上也很弱,而且与经典计算很难实现兼容。

学界对离子阱路线的基础路线研究很多,但是近几年才开始有公司大规模开展离子阱量子计算机的研发,这其中包括美国的霍尼韦尔和IonQ、英国的UQ(Universal Quantum)以及中国的启科量子等。2018年12月,IonQ实现79位处理量子比特和160位存储量子比特。作为工业巨头的霍尼韦尔,在2018年宣布进军量子计算领域,采用离子阱技术实现量子计算,并于2020年6月推出了64量子体积的量子计算机。8月,美国杜克大学和马里兰大学的研究者设计出了在低温下运行的全连接的32比特离子阱量子计算机寄存器,相比霍尼韦尔6比特全连接提高了5倍,是目前公开最多量子比特全连接的技术架构。10月,霍尼韦尔将量子体积提升为128,但IonQ宣布在32量子比特离子阱量子计算机上实现预期超过400万量子体积。UQ在2020年获得了450万美元的超额种子轮融资,被投资机构评价为“UQ是全球唯一能够将量子计算的效率提高到指数级的公司”。同年,北京启科量子在中国光博会上透露“天算1号”离子阱可扩展分布式量子计算机项目,第一阶段技术指标可达到100个可操控量子比特以上,且预计在2-3年内完成。

3.4 光学

光量子,是传递电磁相互作用的基本粒子,是一种规范玻色子,在1905年由爱因斯坦提出,1926年由美国物理化学家吉尔伯特·路易斯正式命名。光量子计算是量子计算中的一种,其原理是使用光子进行“多粒子纠缠的操纵”。大多数实验中,量子比特都是利用被困在振荡磁场、超导电路中的离子,或者在晶体结构中存在的缺陷来进行研究。但是,所有这些技术都很难维护量子比特的叠加性质。而因为光子不易与环境相互作用,所以它们反而很擅长维持叠加。但同时,它们很难被控制。因此,找到使光子相互作用的一种有效方法可以打开经典光学和量子计算的新前景,加速一些计算类型。近年来,物理学家们利用稀有元素的原子冷却到非常低的温度,使光子之间相互作用成为可能。另外,利用光子实现玻色取样和超导量子比特,都是目前国际学术界公认的演示量子计算优越性的两大途径。

2017年5月,中科大潘建伟和陆朝阳等人宣布造出了世界上第一台超越早期电子计算机的光量子计算机。2018年5月,上海交通大学物理与天文学院金贤敏团队发表了节点数达49×49的光量子芯片的研究成果。2018年7月中科大首次实现18位光量子纠缠操控。2019年12月,中科大在国际上首次实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出了复杂度相当于48个量子比特的希尔伯特态空间,其维数高达370万亿。这个工作同时在光子数、模式数、计算复杂度和态空间4个关键指标上都大幅超越之前的国际纪录。其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。2020年12月4日,中国科学技术大学宣布该校潘建伟等人成功构建76个光子的量子计算原型机“九章”。

3.5 量子拓扑

在超导等架构下,量子比特的数量一多,错误率就会急剧上升。错误就来自局域噪音(Local Noise)。在微观世界,哪怕极其微小的电磁场都会对粒子构成干扰,产生所谓的局域噪音。而拓扑量子比特不同,它是通过基本粒子的拓扑位置和拓扑运动来处理信息的。就像远古时代人类结绳记事,利用不同的节点绳子编织的(拓扑)结构的不同代表不同的信息,无论如何晃动绳子(微扰),信息的存储都是稳定的。在量子计算中,只需要找到一种特殊的粒子,让这几个粒子在时间空间上进行交换,它们的轨迹就相当于在绳子上打不同的结,从而代表着不同的信息。信息的存储只依赖于交换顺序而不依赖于交换的具体路径,所以拓扑量子计算对局部的微扰是免疫的。

2005年,在微软首席研究战略官Craig Mundie的支持下,拓扑数学家Michael Freedman在加州圣芭芭拉建立了一个实验室——StationQ,并开始招募凝聚态物质和理论物理学家、材料学家、数学家和计算机科学家,一起构建拓扑量子比特。拓扑量子比特的构建需要马约拉纳费米子,它的反粒子就是自己本身,状态非常稳定,2018年,代尔夫特理工大学的Leo Kouwenhoven团队(微软资助)在Nature发文,给出了马约拉纳费米子存在的强有力证据。然而,在2021年3月研究团队已经撤回了该篇有争议的论文,原因是研究团队称这项研究遗漏了关键数据,没有足够的科学严谨性证实马约拉纳费米子的真实存在。


4. 国内外量子计算企业状况

4.1 国外量子计算企业状况

(1)IBM

IBM 2020年发布了量子计算技术路线图,将在2021年突破100个量子比特,2023年突破1000个量子比特,并最终带领IBM通往百万量子比特以上级别的量子计算设备。此前IBM在内部向IBM Q Network的成员发布了65量子比特Hummingbird处理器。

(2)谷歌

谷歌2020年发布了在2029年前实现100万个物理量子比特处理器的计划。谷歌表示,他们已经制定了计划以102、103、104、105、106量子比特的里程碑逐步扩展量子处理器。一百万个量子比特的计算机将由100个模块组成,每个模块包含100×100个量子比特。谷歌计划使用通过表面代码进行纠错,不过谷歌还设置了其他项目来研究其他形式的纠错,以探索最佳的方法。

(3)D-Wave System(量子退火)

2020年9月,D-Wave发布了5000量子比特系统D-Wave Advantage,每个量子比特与另外15个量子比特相连。这使得D-Wave Advantage比2017年推出的2000Q系统强大了许多倍,后者每个量子比特与另外6个量子比特相连

(4)Rigetti Computing

Rigetti拥有设计量子处理器(QPU)、控制系统的能力,同时提供量子计算云服务,开发量子计算编程工具。通过收购QxBranch提高Rigetti在软件开发、算法方面的能力。还有一些面向终端的应用程序。截至目前,Rigetti是唯一一家为混合经典/量子计算部署全栈解决方案的公司,客户通过Forest云平台连接Rigetti一个19量子位的量子计算机,第一批商业应用已在探索之中。2020年9月,Rigetti英国公司宣布,它将领导一个1000万英镑的财团,以加速量子计算在英国的商业化进程。这项为期三年的计划将在英国建造和运营第一台量子计算机,为合作伙伴和客户提供量子计算云服务,并在机器学习、材料模拟和金融领域寻求实际应用。加入Rigetti财团的还有牛津仪器、爱丁堡大学、量子软件初创公司Phasecraft和渣打银行。

(5)IonQ

IonQ 2020年宣布在一台拥有32个量子比特的机器上,预期实现超过400万的量子体积。该机型目前已上线,是IonQ在AWS上推出的首款产品。Chris Monroe组的一篇论文透露,该系统单比特门保真度为99.98%,双比特门保真度为98.5%-99.3%。退相干时间T2为2.75秒。

(6)霍尼韦尔

霍尼韦尔量子团队2020年宣布他们的量子计算机实现了128量子体积。在完全连接量子比特的情况下,平均单量子比特保真度为99.97%,双量子比特门保真度为99.54%。

(7)微软

微软在2020年推出了量子程序的中间表示,称为量子中间表示(QIR),作为基于门的量子计算编程语言和目标量子计算平台之间的通用接口。QIR于9月23日推出,基于LLVM中间语言,它指定了在LLVM中表示量子结构的规则。不需要对LLVM进行扩展或修改。

(8)英特尔

英特尔与QuTech共同在Nature上发表论文,证明了在高于1开氏度下能够成功控制“高温”量子比特。英特尔和QuTech还证明了能够控制双量子比特系统电子自旋的能力,并测量出单量子比特门保真度99.3%,且可对系统进行精确调整。

(9)亚马逊

AWS在2019年宣布推出量子计算服务Amazon Braket,是一项全新的、完全托管的AWS服务,让科学家、研究人员和开发者能够在一个地方开始试验来自量子硬件提供商(包括D-Wave、IonQ和Rigetti)的计算机。2020年8月,亚马逊宣布了Amazon Braket的全面上市,作为完全托管的AWS服务,Amazon Braket可提供开发环境来帮助客户探索和设计量子算法。

(10)Slicon Quantum Computing (SQC)

2020年9月,前谷歌量子硬件开发团队负责人John Martinis加入了SQC。Martinis加入SQC的决定是对该公司在原子尺度构建硅基量子计算机这一方法的重要肯定。2020年10月,SQC刷新了有史以来的半导体量子比特的最低噪声水平。SQC通过将该研究成果与在1微秒内读出量子比特信息的能力相结合,实现了双量子比特门保真度99.99%。

4.2 中国量子计算企业情况

(1)华为

华为量子计算研究的学术带头人为翁文康教授,主要研究方向是针对NISQ时代的专用量子计算算法和软件。华为2021年发布了全新的HiQ量子计算云平台公测版本,在量子模拟器与编程框架取得阶段性研究成果。

(2)腾讯量子实验室

腾讯量子实验室与外部科学家Iordanis Kerenidis合作一起对神经网络中最基本的前馈网络,研发了第一个可证明的量子加速算法;基于对制药企业调研,腾讯量子实验室在小分子药物发现流程中引入AI模型,用量子性质的计算和判别,生成强化学习的机器学习模型,将学术界和传统制药企业有效连接,帮助传统药物研发流程升级,提高药物研发效率。

(3)阿里巴巴达摩院量子实验室

阿里团队对谷歌量子优越性提出质疑,开发出了一款基于张量网络的模拟算法,并在阿里云上对该算法进行了测试,与Sumimit相较的集群方式相

比,显示其能仅在20天内就解决谷歌测试所用的、1万年版本的随机量子线路采样问题(53量子比特,20个周期)。

(4)百度量子平台

百度发布了自主研发的国内首个云原生量子计算平台量易伏,可以通过云端对量子硬件后端进行访问,也可以通过百度自研的模拟器运行高达28个量子比特的量子随机线路模型。另外,百度还对量脉和量桨进行了升级。

(5)本源量子

本源量子由中科大郭光灿、郭国平二人创立,2020发布会上发布了基于真实超导芯片的量子计算云平台,其后端搭载了6个真实物理量子比特;另外还发布了本源的第二代32比特的量子测控一体机,支持216通道,并具备200ps同步稳定性。

(6)量旋科技

量旋科技主要由来自清华大学、中国科技大学、南方科技大学以及加拿大滑铁卢大学的量子计算专家创立。近期主营特色为真实的2比特、拥有独立的QPU、支持200多个单比特量子门操作以及20个双比特量子门操作的桌面型核磁共振量子计算机。


5. 核心设备及元器件

量子计算机概括地说也由三个部分组成,分别是存储器、处理器、输入和输出系统。经典信息论要求一切“合理”的信息都能够表达为对一系列是非问题的回答,即一串比特。经典符号计算的每一步都可以映射到位串上,但与之不同的是,物理计算只需要对初始和最终机器状态进行标记即可,而这些标记就构成了计算的输入和输出。

5.1 超导量子处理器芯片

超导量子处理器芯片基于超导约瑟夫森结这种非线性器件,基本组成单元是量子器件而不是传统电子学元件,和半导体芯片电路特性完全不同,电路原理和结构设计遵循完全不同的逻辑,不可能直接使用现有的半导体芯片设计EDA软件,需要重新开发。英特尔在2019年12月发布了一款以美国俄勒冈州最冷的地方为名的Horse Ridge CMOS芯片,旨在承担量子计算机上的线缆工作,并将芯片和电子元件缩小到只有茶碟大小。Google Sycamore量子计算芯片具有数十条微小的通讯线可链接到外界。该芯片有54个量子比特,这是用于在量子计算机存储和处理数据的基本单元。谷歌用结合在一起的两个部分来构建其Sycamore量子计算芯片,包括与外界通信的控制器接口以及容纳执行数据处理的量子比特的芯片元素。

5.2 大功率极低温制冷机

超导量子处理器只能在配有各种屏蔽的10mK左右的极低温(约零下273.14度)下才能工作,而且还要长时间稳定提供足够的制冷功率,目前能做到的只有稀释制冷机。在此低温下运行的主要原因有三点。首先,绝对零度可以使超导量子比特进入超导状态从而避免了正常态的电阻损耗,因而提高了超导量子比特的量子特性。其次,超导是产生非线性Josephson效应的必要条件,而Josephson效应是形成超导量子比特的直接原因。第三,超低温可以尽可能地减少热运动导致的能带变宽,能够更好地保证量子比特的相干性。因此,将样品冷却到超低温是进行超导量子计算的先决条件。这样低的温度只能利用He3-He4稀释制冷机来获取,这也是世界上几乎所有超低温实验室里所应用的设备。当前的稀释制冷机技术仅能做到满足数百个比特的需求,支持更大规模的量子芯片的技术仍是一个待研究的课题。


6. 系统软件、语言与算法

6.1 量子算法

在量子计算中,量子算法是一种在量子计算的现实模型上运行的算法,最常用的模型是量子电路计算模型。经典(或非量子)算法是指令的有限序列,或解决问题的分步过程,其中每个步骤或指令都可以在经典计算机上执行。同样,量子算法是一个分步过程,其中每个步骤都可以在量子计算机上执行。虽然所有经典算法也可以在量子计算机上执行,量子算法通常用量子计算的一些基本特征,如量子叠加或量子纠缠。使用经典计算机无法避免的问题现在仍然无法使用量子计算机解决。量子算法能够比经典算法更快地解决一些问题,因为量子算法利用的量子叠加和量子纠缠可能无法在经典计算机上有效地类比。最著名的算法是Shor的因子算法和Grover搜索非结构化数据库或无序列表的算法。Shor的算法执行速度比最有名的保理经典算法(一般数位栏位筛)快得多,几乎呈指数级。Grover的算法以四倍速度执行线性搜寻,比同一任务的最佳经典算法快。

6.2 量子编程语言




图4. 量子编程语言分类及简介(资料来源:2020全球量子计算机产业发展报告)

7. 量子计算的产业应用及进展

量子计算行业目前处于早期探索阶段,产业链上下游较为清晰,目前以国外如IBM、Google、Intel、IonQ及霍尼韦尔、国内以阿里巴巴、华为、腾讯、百度、本源量子等量子巨头为核心,构建了较为完整的产业链。




图5. 量子计算产业链(资料来源:2020全球量子计算机产业发展报告)

当前阶段,量子计算主要有两个类型的应用。第一类是量子模拟,即在药物研究、材料科学、量子化学等领域需通过计算机来模拟量子系统,若用经典计算机则需耗费巨量计算资源,而运用量子计算机做量子模拟则最接近自然的状态;第二类是量子计算加速及优化,即我们日常所见技术公司的计算加速及优化,包括AI机器学习的加速,大数据处理及优化等,目前在金融领域、航空、交通领域探索较多。根据波士顿咨询(BCG)发布的量子计算行业调研报告,参考目前的消费电子市场规模,保守估计(不考虑量子纠错算法的进展),量子计算应用市场规模2035年将达20亿美元,2050年飙至2600多亿美元;乐观估计(考虑量子纠错算法的进展),2035年将达600亿美元,2050年飙至2950亿美元8。


8、量子计算的现有的挑战以及发展方向

量子计算机可分为通用机和专用机两类,通用量子计算机需要上百万甚至更多物理比特,具备容错计算能力,需要量子算法和软件的支撑,其实用化是长期渐进过程。专用量子计算机用于解决某些经典计算难以处理的特定问题,只需相对少量物理比特和特定算法,实现相对容易且存在巨大市场需求。

在与经典计算的比较和发展定位方面,量子计算目前只在部分经典计算不能或难以解决的问题上具备理论优势,且尚未得到充分证明,并非在所有问题的解决上都优于经典计算。此外,量子计算机的复杂操控仍需要经典计算机辅助,在未来相当长时间内,量子计算都无法完全取代经典计算,两者将长期并跑、相辅相承。

  1. 关键技术尚未突破,算力优势仍待证明。量子计算技术研究与应用仍处于发展早期阶段,大规模量子比特物理实现、量子纠错编码、量子算法软件等关键技术仍处于艰难的研究拓展阶段。量子系统脆弱性对计算准确度影响较大,现有系统的相干时间、量子比特数量和操控精度不足以运行已有的高级量子算法,其超越经典计算的计算能力优势尚未得到充分证明。
  2. 量子计算的主要应用目标是解决大规模数据优化处理和特定计算困难问题。机器学习在过去十几年里不断发展,对计算能力提出巨大需求,结合了量子计算高并行性的新型机器学习算法可实现对传统算法的加速优化,是目前的研究热点。量子机器学习算法主要包括异质学习(HHL)算法、量子主成分分析(qPCA)、量子支持向量机(qSVM)和量子深度学习等。目前,量子机器学习算法在计算加速效果方面取得一定进展,理论上已证明量子算法对部分经典计算问题具有提速效果,但处理器物理实现能力有限,算法大多只通过模拟验证,并未在真实系统中进行迭代,仍处发展初期。目前,基于量子退火和其他数据处理算法的专用量子计算机,已经展开系列应用探索。Google联合多家研究机构将量子退火技术应用于图像处理、蛋白质折叠、交通流量优化、空中交通管制、海啸疏散等领域。JSR和三星尝试使用量子计算研发新材料特性。埃森哲、Biogen和1Qbit联合开发量子化分子比较应用,改善分子设计加速药物研究。德国HQS开发的算法可以在量子计算机和经典计算机上有效地模拟化学过程。摩根大通、巴克莱希望通过蒙特卡洛模拟加速来优化投资组合,以提高量化交易和基金管理策略的调整能力,优化资产定价及风险对冲。未来有望基于量子模拟和嘈杂中型量子计算(NISQ)原型机在生物医疗、分子模拟、大数据集优化、量化投资等领域率先实现应用。
  3. 在量子计算机的物理实现方面,通过量子纠错可以解决退相干等因素导致的计算错误问题。使用量子纠错的首要条件是亚阈值操作,近年来的实验进展直接显示了这个条件是可以达到的。然而,进行密码破解规模的量子计算所需的量子比特数量巨大,成为了利用肖尔算法等量子算法的主要障碍。目前看来,超导量子比特和离子阱系统相较于其他系统具有一定优势。但鉴于到容错量子计算还有几个数量级的差距,很难说会在哪一种系统中最终实现通用量子计算机。
  4. 受限于现有技术所能提供的量子比特数量,中等规模量子计算有可能在近期内实现应用。量子变分算法能够在这些限制条件下运行,因此适用于中等规模量子计算,并且有希望解决某些经典计算机难以解决的量子化学和材料科学等研究中的重要问题。尽管如此,由于量子变分算法涉及到大规模参数优化并依赖于选取的尝试量子线路,还无法像肖尔算法一样严格从理论上证明其对经典算法的优势。因此,在这方面还需要从理论上进一步研究量子算法,并在量子计算系统上对算法进行测试。


参考文献

  1. M. Veldhorst et al., Universal quantum logic in hot silicon qubits, Nature, 2020, 580(7803):355-359. doi: 10.1038/s41586-020-2170-7.
  2. Zhong, Han-Sen et al., Quantum computational advantage using photons, Science (New York, N.Y.), eabe8770. 3 Dec. 2020.
  3. DiVincenzo D P., The physical implementation of quantum computation. Fortschr Phys, 2000, 48: 771–783.
  4. Devoret M H, Schoelkopf R J. Superconducting circuits for quantum information: An outlook. Science, 2013, 339: 1169–1174.
  5. Nakamura Y, Pashkin Y A, Tsai J S. Coherent control of macroscopic quantum states in a single-cooper-pair box. Nature, 1999, 398: 786–788.
  6. Barends R, Kelly J, Megrant A, et al. Superconducting quantum circuits at the surface code threshold for fault tolerance. Nature, 2014, 508: 500–503.
  7. L. Kranz et al., Quantum Computing: Exploiting a Single-Crystal Environment to Minimize the Charge Noise on Qubits in Silicon, Adv. Mater., 2020, 32(40), 2070298.
  8. M. Russo et al., The coming quantum leap in computing, The Boston Consulting Group, 2018.

(作者:姑苏实验室 苏利军)

相关内容