在量子计算领域,中国已经行动起来了,研究机构以及站在技术领先地位的企业都已经在奋力在量子计算领域展开研究。为什么在不久的将来量子规律在计算中会变得如此重要?小型化给了我们一个直觉的理解,计算机电子工业随着集成电路尺寸的减小而发展,为了提高这个能力,也就是说,提高计算机每秒所能执行的浮点运算数目,小型化是必须的。经验告诉我们,计算机的小型化发展可以用摩尔定律来定量描述,该定律来自摩尔在1965年的非凡观察:在单个集成电路芯片上所能放置的晶体管数目大约在一年半到两年翻一番。目前,单个集成电路芯片上所能放置的晶体管数目大约是100亿个,电路元件尺寸已经达到了7~10nm。如果将这个定律继续外推,2025年,为储存单个比特的信息,那么硅片上的集成电路最终将会缩小到一点, 那些独立的晶体管不会比几个原子更大,这就导致了新的问题出现.因为在原子级别支配着电路的行为和性质的物理规律是量子力学,而不是经典物理定律,这引起人们思考是否能设计一台新的建立在量子物理规律基础上的计算机。
经典计算机可以描述为一个物理的信号序列变换控制机器,该机器通过算法与计算机的内部逻辑电路控制系统来实现解决问题的功能。
量子计算是新型的满足量子力学数学原理来控制量子比特进行计算的模式。量子计算机与经典计算机相比较,后者是以传统的图灵机模型为基础的;而通用量子计算机,它通过使用量子力学的新的理论模型,重新构造了新的量子计算机。尽管量子计算机只可以解决传统计算机已经能够解决的任务,但是量子计算机由于叠加态的存在而使得并行计算的可能,所以计算效率是能够远超传统计算机的,这也是我将在下文着重说明的部分。
1.3 量子计算的发展现状与未来
量子计算与量子计算机的研究现如今还是面对重重困难的,无论是在物理工程学方面还是算法方面,人们还是在一片漆黑中向前摸索。
相较于量子计算与算法理论的相对成熟,量子计算机的工程实现还是非常落后的。最前端的研究也只能对个位数的量子比特进行有效的控制。而学术界对于量子的有效控制与对于量子计算机的扩展研究都还在缓慢前行。
量子计算代表了与传统计算机根本不同的挑战:其目的是建立一台基于量子逻辑的机器,也就是说,该机器利用量子力学的规律来进行信息处理和逻辑操作。
量子计算机可以在单次运行中处理大量的经典输入,这可能意味着有可能有大量的输出。在1994年,Shor提出了一个量子算法,利用它可以非常有效的解决素数因子分解问题。这是计算科学中的一个重要难题,尽管还没有证明,有人推测,素数因子分解对于经典计算机而言是困难的。所以量子计算机可能存在许多优于传统计算机的地方。学习,了解量子计算,并提出自己的观点是我论文的目的。[2]
2017年11月3日,中国科学技术大学潘建伟、朱晓波团队,已经利用超导技术实现了10个量子比特的量子纠缠。这个成果突破了之前9个量子比特的记录。并且计划于年底完成对20个量子比特的操纵。2017年11月11日美国IBM公司宣布20个量子比特的计算机问世。[5]
1.2 量子计算
1.2.1 量子计算的起源与背景
量子计算起源于上世纪80年代,是由一位著名物理学家费恩曼提出了量子计算的概念,而到上世纪90年代美国科学家域最重要,最有名的算法。
量子计算是使用量子计算机代替经典计算机来实现图灵机的功能,而量子计算机在构造与原理上与经典计算机有许多的不同,这也就导致了量子计算要使用量子计算机特有的特性与功能来设计算法并且使这个算法发挥量子计算机的长处,从而提高解决问题的效率。[3]
1 绪 论
1.1 引言
随着时代的推进,量子计算的字眼代替了传统计算,越来越多地出现在我们日常所见的新闻中,报告中,研究中。
2015年7月,阿里云联合中科院成立“中国科学院-阿里巴巴量子计算实验室”,宣布共同开展在量子信息科学领域的前瞻性研究,研制量子计算机。2016年8月,中科大首次研制出非局域量子模拟器。2017年5月,中国科学院-阿里巴巴量子计算实验室等参与研发的中国首个光量子计算机面世。2018年10月12日,华为公布了在量子计算领域的最新进展:量子计算模拟器HiQ云服务平台问世,平台包括HiQ量子计算模拟器与基于模拟器开发的HiQ量子编程框架两个部分,这是这家公司在量子计算基础研究层面迈出的第一步。[1]
在实现通用量子计算机的制造上,实现方法主要有五个流派:加拿大的DW公司使用“量子退火”的技术,使每个量子比特只与相邻的量子比特发生纠缠,并不能建立起所有量子比特一组的并行计算。但是对于一些计算如最优计算,这项技术非常有价值与潜力。英特尔使用的是“硅量子点”技术,该技术使用硅代替原子与离子实现量子比特的功能。微软则开发拓扑量子系统,该系统已经不再是物体,而是概念性的存在。谷歌则是使用超导的物理态来实现量子计算机。而ionQ则是使用囚禁离子技术。 我们未来可能见到的量子计算机更可能是各种想法与技术的结合体。
目前,许多量子算法已经被证明效率远远高于传统的经典计算机算法,如Deutsch算法,Shor算法等。这些量子计算算法可以大大减少解决问题所需的步数,Deustch算法很具有代表性的使用了量子的叠加态原理,从而进行了并行计算,并且使用量子相干性的有效地提取出了量子叠加态中的信息。Shor算法是量子计算中最重要的算法,就是因为这个算法对传统难题:整数的素因数分解是非常高效的,从而引起了学术界对量子计算的极大关注。这个算法可以将整数分解素因数问题的计算复杂度由超多项式性的降为多项式性的,把整数分解问题有传统计算机上困难的,转变为量子计算上可行的,容易的。这个结果是令人震惊的,如果量子计算得以发展,那么分解素因数问题的解决将对现有的主流密码学体系产生巨大的冲击。