深兰科技-借用平行宇宙的算力——量子计算现状与展望
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
深兰科技|借用平行宇宙的算力——量子计算现状与展望
量子计算的诞生
19世纪的最后一天,欧洲著名的科学家们欢聚一堂。
聚会上,英国著名物理学家威廉·汤姆生(即开尔文男爵)发表了新年祝词。
他在回顾物理学所取得的伟大成就时说,物理大厦已经落成,所剩只是一些修饰工作。
同时,他在展望20世纪物理学前景时,却若有所思:“动力理论肯定了热和光是运动的两种方式,现在,它美丽而晴朗的天空却被两朵乌云笼罩了。
”
▲开尔文男爵
当时的开尔文男爵一定不会想到,自己所说的两朵乌云恰恰促进了人类物理学的两次大突破。
第一朵乌云即迈克耳逊-莫雷实验与“以太”说破灭,这直接导致了爱因斯坦提出了著名的相对论;第二朵乌云则是热学中能量均分定理与实验不符,这推动了一众天才们建立了当今的量子力学。
一看到“量子力学”,我想此文的读者大多会紧锁眉头,觉得这个过于深奥的学科和自己的生活毫无关系,就让那些外表木讷、专注宇宙奥秘的物理学家研究去吧!
其实,我们现在日常使用的电脑和手机里的零件,如晶体管、激光蚀刻技术都是在量子力学理论指导下才在实验室中设计、生产出来的,直到现在才建立了成熟的产业,彻底改变了我们的生活,这便是所谓的“第一次量子革命”。
而在今日,如何发展新的量子技术是各个国家及联合体,包括中国、欧盟、美国、日本、英国、加拿大等科学团体的主要目标之一,力图将理论的成果转化为应用并达到“第二次量子革命”。
这便引出了我们今天的主角——量子计算。
经典计算机和量子计算机的区别
在现在这个信息爆炸的时代,我们人人手上都有一台高性能的手机和计算机,其中最主要的核心元件就是作为计算处理器的芯片。
有一条众所周知的摩尔定律:电脑芯片上的晶体管每18个月就翻一倍。
在电子计算机发展的前50年里与摩尔定律的预测十分接近,但由于电子元件的尺寸越小所需的技术和
成本就越高,集成电路的发展已愈发显出疲态;再加上当电子元件的尺寸工艺达到纳米级别时,量子效应将越来越明显,电子之间的隧穿效应会导致回路失灵。
科学家预测,到2025年摩尔定律将不再奏效。
由此,人们的目光逐渐投向了量子计算机。
▲摩尔定律即将失效当晶体管尺度接近纳米级别量子效应不可避免量子计算机的想法,源于1981年诺贝尔获得者、物理学家Richard Feynman的一次演说。
他指出了:当使用经典计算机处理一些原子分子问题而出现计算量大的困难时,也许可以“用量子机器解决量子问题”。
那么经典计算机和量子计算机究竟有何不同呢?
比特(bit)在经典计算机和信息论中是最基本的概念之一,一个比特代表了一个基本单位的信息量。
在经典计算机中,一个0和1构成的比特由不同的电压实现,0代表低电压信号,1代表高电压信号。
▲可表示0与1叠加态的量子位
在量子系统中,我们也可以寻找天然的双态系统来实现这种两个可区分的状态。
比如自旋系统,一个电子的自旋有上下之分,我们可以把测量到“上”定义为1,测量到“下”定义为0,这就构成了一个量子比特。
而神奇的地方在于,量子力学告诉我们,一个量子比特可以制备在两个逻辑态0和1的相干叠加态。
换句话讲,它可以同时存储0和1。
考虑一个有N个物理比特的存储器,若它是经典存储器,则它只能存
储
n
2(2的N次方)个可能数据当中的任一个;若它是量子存储器,则它可以同时存储n2个数,而且随着N
的增加,其存储信息的能力将指数上升。
例如,一个250量子比特的存储器(由250个原子构成)可能存储的数量达2^250,比现有已知的宇宙中全部原子的数目还要多。
由于数学操作可以同时针对存储器中全部的数据进行,因此,量子计算机在实施一次的运算中,可以
同时对
n
2个输入数进行数学运算。
其效果相当于经典计算机要重复实施n2次操作,或者采用n2个不同
处理器实行并行操作。
可见,量子计算机可以节省大量的运算资源(如时间、记忆单元等)。
经典量子算法——Shor和搜寻算法
为开拓出量子计算机巨大的并行处理能力,还必须要寻找适用于这种量子计算的有效算法。
Shor于1994年发现第一个量子算法,它可以有效地用来进行大数因子分解。
大数因子分解是现在广泛用于电子银行、网络等领域的公开密钥体系“RSA”的安全性依据。
采用现有计算机对数N(二进制长度为logN)做因子分解,其运算步骤(时间)随输入长度(logN)指数增长。
迄今在实验上被分解的最大数为129位,1994年在世界范围内同时使用1600个工作站花了8个月时间才成功地完成了这个分解。
若用同样计算功能来分解250位的数则要用80万年,而对于1000位的数,则要有10^25年。
与此相反,量子计算机采用Shor算法可以在几分之一秒内实现1000位数的因子分解,而且操作时间仅随输入数的3次方增长。
可见Shor量子算法将这类“难解”问题变成“易解”问题。
在量子计算机面前,现有公开密钥RSA体系将无密可保!Shor的开创性工作有力地刺激了量子计算机和量子密码术的发展,成为量子信息科学发展的重要里程碑之一。
▲量子并行算法对目前业界普遍使用的RSA加密算法是个极大的威胁另一个非常有用的量子算法是1997年Grover提出的搜寻算法,即所谓的量子搜寻算法,通俗地来说,它可解决如下问题:要从有着100万个号码的电话本中找出某个指定号码,该电话本是以姓名为顺序编排的。
经典方法是一个个找,平均要找50万次,才能以二分之一几率找到所要电话号码。
Grover的量子算法是,每查询一次可以同时检查所有100万个号码。
由于100万量子比特处于叠加态,量子干涉的效应会使前次的结果影响到下一次的量子操作,这种干涉生成的操作运算重复1000(即/N)次后,获得正确答案的几率为1/2。
但若再多重复操作几次,那么找到所需电话号码的几率接近于1。
实现量子计算的物理系统
好了,我们现在找到了实用性的算法,那么如何在物理上实现量子计算机的硬件呢?
科学家们开始的设想里,从传统电路的逻辑出发,只要我们能找到一个易于测量的双态体系,如光子的偏振方向,电子、原子核的自旋方向或原子离子本身任意两个离散的能级构成的二能级系统,将它们组成大规模的阵列,再通过光、电、磁场等干涉方法组成一系列“量子逻辑门”对其进行操控,就可以构建出初步的量子计算机。
▲上图:一个四量子位的逻辑回路图
下图:我国中科大实现的半导体三量子比特Toffoli逻辑门,图中黄色部分为操控电极但遗憾的是,在实际中由于原子尺度的粒子很容易受到环境中噪声的干扰而失去量子效应(物理中叫做退相干),量子位极易发生错误,必须将环境温度控制在-273度左右(与绝对零度相差不到一度);再加上由于测量引起的“坍塌效应”,我们无法直接读取一个量子位的状态,只能通过测量与其纠缠的其他粒子来推测出它的状态。
所以为了纠错和读取,每一个量子比特都需要1000-3000个备份量子比特来作为辅助。
▲量子计算机的困境之一——当错误率太高时即使再多的量子比特也无法提高系统性能目前备受人们期待、能实现量子计算的物理系统有离子阱系统、超导约瑟夫森结系统、金刚石自旋系统、半导体量子点系统以及我国潘建伟教授国际领先的光子系统等。
它们各自有不同的优点和缺点,比如离子阱系统“干净”(相干时间长)且精密(量子态制备保真度高),但其所需操控时间长且大规模集成困难;而超导量子系统对量子比特和量子逻辑门的操控可达到纳秒(十亿分之一秒)级别,但抗噪声能力却不能令人满意。
种种诸如此类的困难使得多年过去,人们也只能在实验室内做到数十个量子比特的量子计算原型机。
野心勃勃的量子计算挑战者
不过,即使困难重重,量子计算巨大的潜力仍如同希腊神话中的“金苹果”,诱使着无数科研工作者以及各大科技公司竞相去品尝它甘甜的滋味。
根据最新报道,谷歌、IBM、英特尔和微软等科技巨头成为推动量子计算原理样机研发加速的重要力量,其中谷歌更是提出了所谓“量子霸权”的概念。
各大公司采取不同的技术体系和策略,谷歌、IBM致力于超导体系,英特尔同时涉猎硅半导体和超导体系,而微软布局全新的拓扑量子计算路线。
▲IBM的50比特量子计算机,绝大部分部件作用是将系统保持在接近绝对零度(-273.15℃)从研究成果来看,量子比特数量由2015年的9位迅速拓展至今年3月谷歌宣布的72位,3年内提升8倍,迭代速度明显加快。
今年1月,在2019CES上,IBM宣布推出IBM Q System OneIBM,发布了世界上第一台商用量子计算机。
在国内,专精于量子计算方向的中科大郭光灿院士团队,依托多年科技成果在合肥高新区孵化了国内唯一一家专营量子计算领域的企业——本源量子计算科技有限公司。
此外,安徽省政府设立了100亿元的量子产业投资基金,中船重工等公司陆续与中科大量子科研团队开始合作,BAT也着手涉足该领域。
但这些机构无论是规模还是深度,都与IBM、谷歌等组建的“量子产学研联盟”有较大差距。
▲谷歌的72比特量子计算机Bristlecone
另外值得一提的是加拿大的递波公司(D-Wave System),他们在2007年突然宣布做出了一台量子计算机的原型机Orion。
Orion不是一台基于逻辑门的通用量子计算机,而是一台量子退火机(Quantum Annealer)。
它有16个超导量子比特,但不对量子比特做单独控制,而是用绝热演化的结果求解一些特定问题。
Orion一经诞生就被许多科学家质疑,这并不是一台真正意义上的通用量子计算机。
首先许多物理学家质疑D-Wave是否真正利用了量子纠缠效应,D-Wave声称自己有,但大部分物理学家保持怀疑态度。
其次D-Wave机器究竟有没有量子加速?绝大部分测试表明没有,但对于某些特定问题,它被证明可以比经典计算机更快。
特别在2015年12月,Google对当时最新型号的D-Wave two进行测试,并宣称它比经典计算机快了1亿倍。
但必须强调的是,他们选择了一个特别的问题——模拟退火问题,这个问题用经典算法在短时间内解决十分困难,而D-Wave恰巧在这个特别问题上具有优势,所以它取得了比普通计算机快1亿倍的骄人成绩。
而对于其他通用问题,D-Wave并没有表现出明显的优势。
▲饱受争议的“黑盒子”——D-Wave量子退火机
即使只是一台量子退火机,D-Wave仍然有足够的吸引力驱使人们研究其量子退火算法。
2011年推出
128比特的D-Wave One,就是世界第一个量子计算商品,售价1000万美元,被军火巨头洛克希德·马丁(Lockheed Martin)的公司买下。
而2013年推出512比特的D-Wave Two,被Google、NASA、USRA联合买下。
之后在2015和2017年又推出的1000比特和2048比特的D-Wave2X和D-Wave2000Q,其中一台被谷歌买下(即上文谷歌测试所用)。
尽管通用量子计算机的研发之路险阻且漫长,但它仍然是最吸引人类眼球的新科技之一。
也许正如当年的蒸汽火车之于马车,仅取决于某个关键技术被攻破,而量子计算机与当下迅猛发展的人工智能的结合,或许能给我们的生活带来隔世般的变革。