大数据文摘出品
3月28日,CCF YOCSEF举办线上论坛,探讨“量子计算机离我们还有多远?”论坛特邀量子计算领域三位重量级嘉宾张辉、郑亚锐、Kihwan Kim(金奇奂)分别做了精彩报告。聚焦量子计算机,同时对量子计算机未来的发展及研究进展等展开研讨和思辨,尝试拨开笼罩在量子计算机上的“迷雾”。
文摘菌在这里节选了郑亚锐博士的分享,郑博士毕业于中国科学院物理研究所,目前是腾讯量子实验室硬件方面的负责人。郑博士演讲的题目是《实现量子计算,我们还需要做什么?》
在演讲中,郑博士给出了他对商用量子计算机前景的预期,他个人认为量子计算机将会在10-20年内实现有价值的商业落地。同时,郑亚锐博士提到当前量子计算面临的技术挑战,如退相干问题等。关于量子计算领域如何健康发展,郑亚锐博士给出了一些发展建议,他认为量子计算与经典计算并非竞争关系,量子领域发展应该加深和传统技术领域的合作。最后,郑亚锐博士为大家介绍了腾讯量子计划。下面就跟随文摘菌一起重温一下郑亚锐博士的精彩分享吧~
从我自己的观点来看,量子计算可能至少需要十年以上才有可能真正实现有价值的商业落地,但这个时间应该也不会太久,可能在20年以内。我们可参考一下其他公司的看法,比如谷歌,他们宣称要在十年之内实现100万个量子比特,在2018年的时候他们就已对外提出这个说法。我个人认为这个说法稍微有一点激进,因为从目前技术发展的速度来说,要在十年内实现100万个量子比特,所面临的技术挑战还比较多,但是我们对谷歌的实力还是非常认可,所以不排除在十年之内实现的可能。
IBM也宣称他们的“Quantum volume”的指标,每年可以翻一倍。前不久我们也听到一个新闻,霍尼韦尔宣称(其量子计算机)性能每年要增加十倍,这就比谷歌、IBM更加激进,如果我们以十年的维度来计算,那他十年增加的就是10的10次方,100亿倍,我觉得这个是有点过分宣传了。
今天我们正式来探讨量子计算到底还面临哪些技术挑战,以及未来量子计算整个领域如何能够健康有意义地发展。经典计算机里面,用高低电压来代表0或者1来进行计算,那在量子比特里面,我们是用量子态来代表这个信息,比如说我们可以用0这个量子态或者1这个量子态来代表0或1,量子比特本身遵从量子力学的叠加原理,还有它的纠缠原理,所以一个量子比特可以处于0和1的叠加态上,N个量子比特实际上可以处于2的N次方这样的量子态的叠加态上。大家可以看到,我们量子态的数量跟量子比特的数量呈指数关系,所以它们的增长速度非常快。
在1980年的时候,费曼教授就提出一个想法,因为量子比特的数量复杂度增长特别快,因为大家都知道指数型的增长经典计算机无法模拟,那么是否可以直接利用量子力学来计算量子力学的一些问题?这个概念从那个时候慢慢发展成一个比较系统的学科。那我们怎么样来做一个量子计算机呢?简单来讲,就是有这样三个要求,首先要有一个量子比特,接下来我们要有一个高保真度的量子操作,所谓的量子操作可以类比成我们经典计算机里面的非门、与非门、或门这些基本的门操作。因为我们要执行一个有价值的算法,就需要足够多的量子比特来进行运算。
这三个问题讲起来比较简单,但做起来却没那么简单,首先我们需要一个量子比特,我们可以去自然中去看,什么样的东西可以作为我们的量子比特?现在人类已经挖掘出来非常多的体系,能够作为量子计算的载体,包括用超冷原子、用离子阱、用光子,还有我们今天主要讲的超导量子比特,还有概念非常前沿的拓扑量子计算,以及N-V色心类似的这种点缺陷,它们都可以用来做量子计算。这些体系有各自的优缺点,目前还无法下定论说哪一种体系一定能够最终实现量子计算,但目前来说发展比较快的还是超导量子比特和离子阱。
超导量子比特最重要的一个优势,在于它是类似电路的结构,可以采用我们传统集成电路的工艺,来帮助它快速地实现大规模量子比特系统的印刷和制造。它在这几年的发展特别快,我们这里借用了一下IBM和谷歌的结果,左边这张图可以看到超导量子比特退相干时间大概两到三年就会翻一倍,现在整个量子比特的性能已经比十年前、十五年前要好很多了。
比如在2005年时,量子比特退相干时间大概就是一个微秒的级别,现在已经有几百微秒。比特数量增加也非常快。谷歌2019年发表的是53个量子比特的芯片,叫Sycamore。但其实它在2017年的时候,已经出了72个比特的量子芯片,这一代的芯片比上一代要做了升级,数量看起来没有增加,其实上面的复杂度比以前增加多了,某种程度上来说,应该把它看作100多个比特的芯片,而不是简单的53个量子比特的芯片。
除了退相干和量子比特数量之外,我们可以看到超导量子比特门操作的保真度也是比较高的,达到了99.4%,这是2014年的结果。其实最新的Sycamore结果应该会比这个更好一点,可能有99.6%,超过了我们所谓的纠错阈值。我们刚才说,造一个量子计算机,首先要有量子比特,要有高保真度的量子操作,还要有足够多的量子系统。那超导目前来说已经大体能够满足这三个要求,就是达到了一个门槛,所以说,谷歌为什么在2019年发表达到量子霸权的成果?也是因为技术确实发展到了这个地步。
我们这里借用IBM的一个图来简单介绍一下量子计算后面发展的可能路径。最底下就是一个物理量子处理器,解决量子比特的问题,接下来要研究如何去控制,还有如何去读取这个量子比特,然后在读取和控制达到比较高的保真度之后,我们需要去对量子系统做量子纠错的操作,目的是为了进一步提升量子系统操控的精度,因为99%的操控精度还是不能用来实现真正有价值的量子算法的实际应用,真正有价值的量子算法,可能要求10个9,甚至12个9,非常难以从物理上去实现这样的保真度。
科学家们非常聪明,他们想到一个方式,直接做出这么高保真度的门不容易,但可以用很多很多个量子比特,借鉴经典计算机里面纠错的概念,来确保最后总的等效的量子操作,可以达到比较高的保真度,这就是所谓的量子纠错。那在这个基础上,我们就可以靠大量的量子比特来达成一个非常高保真度的量子操作,在这个基础上再去用更多的量子比特实现有价值的量子算法的落地,就是下面我们要说的逻辑层面的量子处理器。在逻辑层面需要去突破的技术,跟物理层面的量子处理器一样,也是需要去控制和读取,最后实现有价值的量子算法。
超导量子计算刚才我们也说到了,现在刚刚好达到了这个量子纠错的门槛,而且比特数量也刚刚好达到53,不多不少,刚好达到一个门槛。它下一步要突破的就是量子纠错的问题。从我们最终的目标来说,真的要实现量子计算应用的落地,我们需要达到什么样的水准呢?从理论上来说,我们大概需要100万个量子比特,量子纠错之后,它会形成大约有1000多个量子逻辑比特的规模,这样的规模就足够我们去验证很多,比如像一些材料的物理性能的模拟,包括可能有一些小规模的Shor算法,可能也可以运行了。单比特门需要达到99.99%的精度,双比特门需要达到99.9%的精度,读取也需要达到非常高的保真度。
刚才我们提到双比特门已经可以到99.4%的精度了,保真度已经非常接近我们的目标了,下一步很重要的问题,还是在于怎样在提高比特数量的同时,保持量子比特的门保真度,这是当前学术界主要研究的问题。
为什么说量子比特的数量提升会遇到瓶颈?问题就在这里,怎样能够控制实现中间比特的控制和读取。那最基本的思路,就是我们在这个布线上增加一个维度来实现这个布线,这个想法2014年谷歌团队就已经提出来了,其实也是借鉴传统的半导体工艺里一个叫Flip-Chip的工艺,就是倒装焊,相当于把两个芯片这样对接扣到一起,来去实现它的布线。
当然这个概念可以再进一步发展,我们可以把不止两个芯片贴到一起,我们可以把很多层的芯片都贴到一起,叫做多层堆叠技术。现在美国麻省理工的Lincoln Lab已经可以实现这个技术了。在这种技术突破的基础上,布线可能就不会成为阻碍下一步比特数扩张的问题。
另一个问题就是如何提升比特门的操作精度,因为比特门的操作精度目前是受限于退相干时间的限制,简单来说,这个问题就转换成如何在提升比特数量的同时,还能够提升比特的相干时间。根据大家的研究,基本上可以认为超导量子比特的退相干来源主要受所谓TLS的影响,TLS就是Two Level System(两级系统),超导量子芯片的衬底和表面可能有一些缺陷杂质,会形成亚稳态或者半能级系统,干扰超导量子比特的运行。我们要想提升超导量子比特的退相干时间,就需要把这些缺陷杂质去掉,要把超导量子芯片这个电路做得更加干净,它的退相干性能就会变得更好。
所以,从根源上来说,我们就需要从材料和工艺两个方面进行改进。从超导量子计算的发展史上来看,大家对材料做了非常多的创新和改进,才有我们每两到三年增加一倍的退相干时间的结果。在早期超导量子比特刚刚出来的时候,大家可能还没有意识到这个问题,因为其实超导量子比特的发展非常晚,它可能到现在出来刚好是21年,今年是超导量子比特发现的第21年,它的退相干性能从小于一微秒,迅速提升到两三百微秒,靠的就是材料和工艺的更新。
早期的量子比特用的都是非常传统的、半导体经常会用到的材料,退相干性能比较差,小于一微秒。当时大家对超导量子计算并没有寄予厚望,认为它也就是拿来做做基本的研究,去研究一些量子力学的基本问题,要真拿它来做量子计算还是有点悬。但到2007年的时候,它换了一种电容机构,2013、2014年,谷歌又做了很多工艺的革新,包括设计上的更新,退相干时间迅速提升到百微秒的量级。特别是在今年,又有科学家发现用新的材料,比如钽这种金属,它可能把量子比特的退相干时间进一步提升到几百微秒的量级。超导量子计算的发展时间虽然短,但是在这21年里,它一直保持着非常快的进步速度。
所以,我们认为在未来退相干时间还有进一步提升的可能,实际上目前新工艺、新材料的尝试还没有达到瓶颈。比如我们可以用超高真空的封装,使电路的表面更加干净,比如使用原位衬底熔炼技术,可以让衬底的缺陷更少。用所谓的同位素富集,可以使超导体量子芯片的衬底,比如硅,可能用硅28这种同位素来做衬底会更好,可能会达到更长的退相干时间。
当然除了我提到的这种可能性之外,其实还有非常多的工艺和材料等待着大家去挖掘和尝试,所以对于超导量子比特退相干时间的提升,大家还是比较乐观的,认为将来提升到一个毫秒的级别没有问题,一个毫秒是什么样的概念呢?我们刚刚提到单个量子比特需要4个9的保真度,两个量子比特需要3个9,一个毫秒的话,我们一个量子比特可以达到5个9的保真度,双比特有可能达到4个9的保真度,所以还是非常有希望。
刚才也说了,如果按目前已知的量子算法来看,可能真正产生实际应用价值还需要100万个比特的规模。100万个比特还是有点遥远,像谷歌宣称需要十年才能实现这个目标,但一个行业如果完全寄希望在十年后的突破上,对这个行业发展并不是特别有利。大家最近在考虑一个问题,因为量子比特规模已经朝100以上走了,那在100到1000个量子比特规模的量子芯片,是不是可以实现有价值的应用呢?这是大家最近在探讨的一个问题。
我们经常听到一些说法,会拿量子计算去和经典计算做比较,比如谷歌有时候也会炒概念,用量子计算机去挑战传统的超级计算机。其实目前来说,传统的超级计算机功能非常强大,要远远强于我们目前所拥有的量子计算机的能力,如果从这个角度来看,似乎量子计算机在十年之内毫无希望。但是我们更应该换一个角度去考虑这个问题,就是说量子计算机不一定要去挑战经典计算机的优势,而是说我们可以考虑量子加上经典的协同作用,是否能够突破以前单纯靠经典做起来比较困难的事情,这是我们要真正去思考的一个方向。
接下来是针对具体的量子计算领域如何进一步发展的建议。我们最核心的问题,就是要去提升量子比特测控的精度,我们刚刚提到量子纠错是使用量子计算机比较关键的步骤,那在我们真的实现100万个量子比特之前,可能要去做NISQ的研究,也就是100到1000个量子比特规模的应用,这时候我们需要有一些原型机来启发和加速我们的研究。
在量子领域,可持续发展的问题也需要我们重视,因为有些观点认为量子计算机肯定造不出来,这对这个领域有破坏性的作用,可能会导致大家都不去研究这个领域。还有另一个极端,就是过分乐观,认为我们两三年就可以把量子计算机的应用落地,甚至向公司投资者或者政府投资者过分地承诺,实际技术发展没有那么快的话,可能会导致投资者的失望,也会导致这个领域的发展受挫。
关于量子计算和经典计算的关系,量子领域很多技术还是来源于传统的技术领域。量子计算跟经典计算不应该是对抗的关系,而应该是合作发展,利用已有的技术成果来加速自身的发展。在量子计算技术发展过程中,我个人认为企业有非常重要的地位,因为企业往往会跟实际的应用更加靠近,尝试去跟需求端碰撞这些想法和思路的时候,可能会带来一些不一样的想法,去帮助量子计算找到它真正的应用价值。
企业和科研院所也应当有更加开放的心态,因为我们都知道量子计算可能在短期内没法做到有价值的商业化落地,在这个阶段,如果过分强调技术保护可能并不是太有利于技术的发展,不管是企业还是科研院所。怎样去破除技术交流的壁垒,加速领域的发展,是需要大家思考的问题。
刚才的讨论中也说到,量子计算的研究成本非常高,这样就并不是所有的单位都有能力去做这个研究工作,我们腾讯从自身角度来考虑,可能会把我们软硬件的能力开放出来,让社会更多单位参与到这个研究当中,降低整体的社会研究成本。另一方面,我们也会提供实习的机会,给在校学生提供机会参与到量子技术的研究和应用的开发中,去增加社会整体的量子技术人才储备。另外我们也有在积极推进校企合作,加速研究成果的落地,以上就是我的报告内容,谢谢大家!
在本次论坛的最后,YOCSEF的现任主席陈健做了总结性的发言,“通过今天的论坛,我们了解到量子计算机到现在依然算是新生事物,它能解决一些特定问题。也相信未来它能够在速度,以及效果上远超传统计算方式,从而进入生产实际。但是量子计算机距成为通用计算机还有较长的距离,十年、二十年,也许更远。我们也看到了从学术到产业界的全面努力,显然这是一条需要计算机行业从业人员长期努力的道路。”