量子计算机(QUANTUM COMPUTER)
研究量子计算与量子计算机是社会经济与科技发展提出的迫切需求。大家知道,现代电子计算机诞生于1946年,半个世纪以来,由于科技的不断进步,计算机的性能有了突飞猛进的发展。仅就计算速度而言,第一台电子管计算机ENIAC的速度只有5000B/s(比特/秒,即103),而现代高性能计算机的运算速度已经高达万亿次(大约1012 B/s),半个世纪竟提高了10亿(109)倍!从这个角度看,飞速提高的计算机性能似乎足以满足社会进步与经济发展不断提出的需求。
但事实上,计算机性能的改进却始终赶不上人类不断增长的信息处理的需求。当今人类社会进步与经济发展向计算机提出了几乎是无止境的需求,而且随着计算机的出现,以及因特网的普及更加大了这个需求。我们知道,1950年在计算机普及之前,世界范围内信息量的增长速度是每150年翻一番;随着计算机的广泛应用,1950-1960年间信息量的增长达到每10年翻一番;1960-1992年间缩短为每5年翻一番。人们预计2020年以后信息量每73天就要翻一番。这说明计算机性能的提高远远满足不了人类社会信息量的增长所提出的需求,目前计算机处理海量数据的能力非常薄弱。因此研制更高性能的计算机始终是信息领域的重要课题。
量子计算机对IT技术未来发展的影响
半个世纪以来电子计算机的基本原理——图灵机没有任何改变,它们都是建立在对“比特”的操作上。具体地讲,一个比特就是二进制中的一位,它可在{0,1}中取0或者1。在实际的电子计算机中,一个比特总是通过一个具体的物理载体(如电子管、晶体管或集成电路等)实现,所以电子计算机可以看成是运用传统物理学原理对大量“比特”实施操作的机器。
半个世纪中,尽管计算机的性能起了巨大的变化,但这个原理却没有改变,机器性能的提高主要靠的是缩小元器件(物理载体)的尺寸。大家知道,由于半导体工艺与技术的不断进步,几十年来,集成电路的尺寸一直按照所谓的“摩尔定律”(Moore Law),以每18个月缩小一倍的速度持续发展,从而使计算机的性能指标(如计算速度、存储密度等)取得了每18个月翻一番的巨大成就。目前集成电路的特征尺寸已经降到了几十个纳米的量级,这个趋势还在继续着,预计再经过20年左右,将要降到几个原子的大小,甚至更小。于是出现了一个新的问题,在原子的惊讶上传统的物理定律不再适用,遵循的是全新的量子力学规律,在原子的尺度上我们不再可能制造出传统的计算机。也就是说,大约20年后传统计算机将达到它的“物理极限”。人们自然提出如下问题;能不能按照量子力学的原理在原子的尺度上制造一种全新的计算机器(量子计算机 )?这种机器的性能是否能够超越传统的计算机?
在需求的驱动下,量子计算机的研究任务也就自然而然地提出来了。为完成此项任务,人们既要解决大量的基础理论问题,同时也要解决大量的技术与应用问题,这给科技界提供了重大的机遇和挑战。
量子计算机的基本理论问题有所突破
量子计算机区别于传统计算机的特征
在需求的驱动下,人们开始探索量子计算机的问题。量子计算机的思想开始于20世纪70-80年代,70年代初美国C.Bennet等提出可逆计算,80年代初Argonne国家实验室P.Benioff等提出关于计算的量子力学模型的研究,1982年物理学家R.Feymann提出了量子计算机的设想,1985年英国牛津大学D.Deutsh提出了量子图灵机的概念。通过这些科学家的努力,量子计算机的概念基本形成。
传统计算机中的基本计算单元是“比特”,而量子计算机中的基本计算机单元是“量子比特”(qubits)。由于的独特性质,“量子比特”具有与“比特”完全不同的特性,即它不仅可以取“0”或者“1”,还可以同时取“0”和“1”(即量子叠加态)。我们知道,通常一个“比特”只能表示两种可能状态中的一种,而一个“量子比特”则可以同时表示两个状态。推而广之,n个“比特”只能表示2n个状态中的一个,而n个“量子比特”却能同时表示2n个状态。可见,“量子比特”的信息量比“传统比特”增加了指数倍。如果我们能够一种办法对“量子比特”(量子叠加态)进行操作,那就意味着一次能同时操作2n个状态,,实现所谓“量子并行”,那么同样的操作在传统的计算机中却要进行2n次。计算速度因此提高了指数倍!比传统计算机的计算速度有了质的飞跃,从而有可能解决传统计算机所不能解决的难题。
量子计算机目前的研发进展
以上分析只是从原理上说明量子计算机所存在的某种潜力和可能性,进一步的问题是,需要找到一些量子计算机可以计算的具体问题,找到可以对“量子比特”进行运算的具体算法——量子算法,并得到满意的结果,这样才有说服力。1994年AT&T Bell实验室P.W.Shor设计出大数分解的多项式时间的量子算法;1995年Grover发现了量子计算机上数据库的搜索算法,计算时间从经典算法的n降为n的平方根。这两个算法的提出意义重大,人们把它们称为“杀手应用或应用杀手”(Killer Application),因为它们从理论上说明了量子计算机的确可以解决传统计算机难以解决的实际问题,从理论上扫清了人们对量子计算机计算能力的疑虑,从而极大地提高了人们研制量子计算机的信心。特别是Shor算法,大家知道,“大数分解”(将一个复合实数分解为两个素数的乘积)一直是传统计算机的难解问题,因为至今还找不出一种有效(多项式时间)的传统计算机算法进行大数分解。目前因特网上普遍采用的RSA密码体系就是建立在“大数分解难”的基础之上,由于使用现代计算机进行大数分解十分困难,因此破解RSA密码也就十分困难。如果大数分解在量子计算机上变得“不难”了,那么我们目前网上主要使用的RSA密码体系就很容易被破解,网络安全也就无法保证,可见量子计算机的研究对密码学有着重大的影响。
上述理论问题解决之后,量子计算机的研究从20世纪90年代中期开始变得十分活跃。例如,美国DARPA出资500万美元支持Quantum Information and Computing Institute研究量子计算及其应用,美国国家科学基金会设立研究计划“Quantum and Biologically Inspired Computing”;欧洲科学基金会设立研究计划“Quantum Information Theory and quantum Computation(1999-2003)”;中国科技大学量子通信与量子计算机实验室也已经取得了一系列的研究成果。
量子计算机可望不可及?
目前量子计算机发展中的问题
有了上述的理论基础,接下来就可以着手研制实际的量子计算机。目前在量子计算机研究上比较著名的单位有:美国Los Alamos国家实验室、IBM、加利福尼亚理工学院(California Institute of Technology)、英国牛津大学等。要制造一台量子计算机,首先需要将量子信息(量子比特)存储在电子、原子等微小粒子上,并能对它进行操纵和观察,这些任务都是非常艰巨与困难的。
首先要找到一种物理载体来存储“量子比特”,这是第一道难关。目前采用的技术手段有,利用原子的自旋轴或者它的能级来存储量子比特。比如,Boulder国家标准局在零下273℃(接近绝对温度零度)的环境下通过电磁场来捕获单个离子;加州理工学院用偏振光(Polarized light)使光子相互干涉;Los Alamos国家实验室也是捕获离子(Trapping ions)。第二个难题是如何来操纵和观测单个粒子的状态。比如,IBM公司利用核磁共振技术对离子状态进行间接的观测。到目前为止,经过科学家与技术人员的不懈努力,通过上述技术手段还只能造出规模很小的“量子计算机”。据报道,2000年8月IBM Almaden研究中心做出了5个“量子比特”(Qubits)的机器,2000年3月Los Alamos国家实验室制造出7个量子比特的机器。显然,这样的“机器”离实际应用还有相当大的距离。
量子计算机实现实际应用的难点
首先,量子的状态(叠加态,Superposition)十分不稳定,极易受到外界的影响,不管是外部噪音还是观测都会形成对量子状态的干涉,使存储在量子计算机内的信息崩溃,导致计算机错误。比如,当观测一个量子状态时,该状态就会立即塌陷为某个确定值(0或者1)。这种现象在量子物理上叫做脱散(Decoherence),是量子的固有性质。由此可见,量子计算非常脆弱、非常容易出错,并且随着机器规模的增大,计算的可靠性急剧下降,使制造规模大的量子计算机变得十分困难。为了解决上述困难,目前国际上纠错、脱散和硬件体系结构等重要方面展开研究,并已取得一些成果。
另外一个重要的问题是,到目前为止,人们才找到两个比较成功的量子算法:Shor算法和Grover算法,我们还需要更多能解决实际重大问题的量子算法,以证明在哪些问题上量子计算机的确比传统计算机要优越。
未来5年内量子计算机能否实现应用
悲观者认为,量子计算的威力来源于量子相干(Quantum interference)和量子纠缠(Quantum entanglement)的特性,也正是同样的特性带来了量子计算的脆弱性和易于出错。因此像量子纠错、脱散等问题都属于量子计算本身带来的本质困难,因此很难克服。乐观者则认为,上述困难可以在较短时间内予以克服,比如观察测量引起的“脱散”,1998年Los Alamos国家实验室与IBM公司就找出一种间接测量“量子比特”状态的办法,避免破坏量子的叠加态。2002年Wisconsin大学的研究者认为,利用已有的硅片制造技术,有可能在短期内制造出具有百万量子点(1024×1024)的计算机。
让我们再回到刚才的问题,什么时候可以制造出实用的量子计算机?由于人们对困难的估计不同,有的说几年,有的说几十年,也有的说需要几个世纪,仁者见仁,智者见智,但有一点却是相同的:那就是,量子计算机的研制不管成功与否,量子计算的研究一定会给人类未来的生活带来深远意义的影响,因此不管乐观者还是悲观者都把它作为21世纪重要的研究课题,并寄予厚望。
但事实上,计算机性能的改进却始终赶不上人类不断增长的信息处理的需求。当今人类社会进步与经济发展向计算机提出了几乎是无止境的需求,而且随着计算机的出现,以及因特网的普及更加大了这个需求。我们知道,1950年在计算机普及之前,世界范围内信息量的增长速度是每150年翻一番;随着计算机的广泛应用,1950-1960年间信息量的增长达到每10年翻一番;1960-1992年间缩短为每5年翻一番。人们预计2020年以后信息量每73天就要翻一番。这说明计算机性能的提高远远满足不了人类社会信息量的增长所提出的需求,目前计算机处理海量数据的能力非常薄弱。因此研制更高性能的计算机始终是信息领域的重要课题。
量子计算机对IT技术未来发展的影响
半个世纪以来电子计算机的基本原理——图灵机没有任何改变,它们都是建立在对“比特”的操作上。具体地讲,一个比特就是二进制中的一位,它可在{0,1}中取0或者1。在实际的电子计算机中,一个比特总是通过一个具体的物理载体(如电子管、晶体管或集成电路等)实现,所以电子计算机可以看成是运用传统物理学原理对大量“比特”实施操作的机器。
半个世纪中,尽管计算机的性能起了巨大的变化,但这个原理却没有改变,机器性能的提高主要靠的是缩小元器件(物理载体)的尺寸。大家知道,由于半导体工艺与技术的不断进步,几十年来,集成电路的尺寸一直按照所谓的“摩尔定律”(Moore Law),以每18个月缩小一倍的速度持续发展,从而使计算机的性能指标(如计算速度、存储密度等)取得了每18个月翻一番的巨大成就。目前集成电路的特征尺寸已经降到了几十个纳米的量级,这个趋势还在继续着,预计再经过20年左右,将要降到几个原子的大小,甚至更小。于是出现了一个新的问题,在原子的惊讶上传统的物理定律不再适用,遵循的是全新的量子力学规律,在原子的尺度上我们不再可能制造出传统的计算机。也就是说,大约20年后传统计算机将达到它的“物理极限”。人们自然提出如下问题;能不能按照量子力学的原理在原子的尺度上制造一种全新的计算机器(量子计算机 )?这种机器的性能是否能够超越传统的计算机?
在需求的驱动下,量子计算机的研究任务也就自然而然地提出来了。为完成此项任务,人们既要解决大量的基础理论问题,同时也要解决大量的技术与应用问题,这给科技界提供了重大的机遇和挑战。
量子计算机的基本理论问题有所突破
量子计算机区别于传统计算机的特征
在需求的驱动下,人们开始探索量子计算机的问题。量子计算机的思想开始于20世纪70-80年代,70年代初美国C.Bennet等提出可逆计算,80年代初Argonne国家实验室P.Benioff等提出关于计算的量子力学模型的研究,1982年物理学家R.Feymann提出了量子计算机的设想,1985年英国牛津大学D.Deutsh提出了量子图灵机的概念。通过这些科学家的努力,量子计算机的概念基本形成。
传统计算机中的基本计算单元是“比特”,而量子计算机中的基本计算机单元是“量子比特”(qubits)。由于的独特性质,“量子比特”具有与“比特”完全不同的特性,即它不仅可以取“0”或者“1”,还可以同时取“0”和“1”(即量子叠加态)。我们知道,通常一个“比特”只能表示两种可能状态中的一种,而一个“量子比特”则可以同时表示两个状态。推而广之,n个“比特”只能表示2n个状态中的一个,而n个“量子比特”却能同时表示2n个状态。可见,“量子比特”的信息量比“传统比特”增加了指数倍。如果我们能够一种办法对“量子比特”(量子叠加态)进行操作,那就意味着一次能同时操作2n个状态,,实现所谓“量子并行”,那么同样的操作在传统的计算机中却要进行2n次。计算速度因此提高了指数倍!比传统计算机的计算速度有了质的飞跃,从而有可能解决传统计算机所不能解决的难题。
量子计算机目前的研发进展
以上分析只是从原理上说明量子计算机所存在的某种潜力和可能性,进一步的问题是,需要找到一些量子计算机可以计算的具体问题,找到可以对“量子比特”进行运算的具体算法——量子算法,并得到满意的结果,这样才有说服力。1994年AT&T Bell实验室P.W.Shor设计出大数分解的多项式时间的量子算法;1995年Grover发现了量子计算机上数据库的搜索算法,计算时间从经典算法的n降为n的平方根。这两个算法的提出意义重大,人们把它们称为“杀手应用或应用杀手”(Killer Application),因为它们从理论上说明了量子计算机的确可以解决传统计算机难以解决的实际问题,从理论上扫清了人们对量子计算机计算能力的疑虑,从而极大地提高了人们研制量子计算机的信心。特别是Shor算法,大家知道,“大数分解”(将一个复合实数分解为两个素数的乘积)一直是传统计算机的难解问题,因为至今还找不出一种有效(多项式时间)的传统计算机算法进行大数分解。目前因特网上普遍采用的RSA密码体系就是建立在“大数分解难”的基础之上,由于使用现代计算机进行大数分解十分困难,因此破解RSA密码也就十分困难。如果大数分解在量子计算机上变得“不难”了,那么我们目前网上主要使用的RSA密码体系就很容易被破解,网络安全也就无法保证,可见量子计算机的研究对密码学有着重大的影响。
上述理论问题解决之后,量子计算机的研究从20世纪90年代中期开始变得十分活跃。例如,美国DARPA出资500万美元支持Quantum Information and Computing Institute研究量子计算及其应用,美国国家科学基金会设立研究计划“Quantum and Biologically Inspired Computing”;欧洲科学基金会设立研究计划“Quantum Information Theory and quantum Computation(1999-2003)”;中国科技大学量子通信与量子计算机实验室也已经取得了一系列的研究成果。
量子计算机可望不可及?
目前量子计算机发展中的问题
有了上述的理论基础,接下来就可以着手研制实际的量子计算机。目前在量子计算机研究上比较著名的单位有:美国Los Alamos国家实验室、IBM、加利福尼亚理工学院(California Institute of Technology)、英国牛津大学等。要制造一台量子计算机,首先需要将量子信息(量子比特)存储在电子、原子等微小粒子上,并能对它进行操纵和观察,这些任务都是非常艰巨与困难的。
首先要找到一种物理载体来存储“量子比特”,这是第一道难关。目前采用的技术手段有,利用原子的自旋轴或者它的能级来存储量子比特。比如,Boulder国家标准局在零下273℃(接近绝对温度零度)的环境下通过电磁场来捕获单个离子;加州理工学院用偏振光(Polarized light)使光子相互干涉;Los Alamos国家实验室也是捕获离子(Trapping ions)。第二个难题是如何来操纵和观测单个粒子的状态。比如,IBM公司利用核磁共振技术对离子状态进行间接的观测。到目前为止,经过科学家与技术人员的不懈努力,通过上述技术手段还只能造出规模很小的“量子计算机”。据报道,2000年8月IBM Almaden研究中心做出了5个“量子比特”(Qubits)的机器,2000年3月Los Alamos国家实验室制造出7个量子比特的机器。显然,这样的“机器”离实际应用还有相当大的距离。
量子计算机实现实际应用的难点
首先,量子的状态(叠加态,Superposition)十分不稳定,极易受到外界的影响,不管是外部噪音还是观测都会形成对量子状态的干涉,使存储在量子计算机内的信息崩溃,导致计算机错误。比如,当观测一个量子状态时,该状态就会立即塌陷为某个确定值(0或者1)。这种现象在量子物理上叫做脱散(Decoherence),是量子的固有性质。由此可见,量子计算非常脆弱、非常容易出错,并且随着机器规模的增大,计算的可靠性急剧下降,使制造规模大的量子计算机变得十分困难。为了解决上述困难,目前国际上纠错、脱散和硬件体系结构等重要方面展开研究,并已取得一些成果。
另外一个重要的问题是,到目前为止,人们才找到两个比较成功的量子算法:Shor算法和Grover算法,我们还需要更多能解决实际重大问题的量子算法,以证明在哪些问题上量子计算机的确比传统计算机要优越。
未来5年内量子计算机能否实现应用
悲观者认为,量子计算的威力来源于量子相干(Quantum interference)和量子纠缠(Quantum entanglement)的特性,也正是同样的特性带来了量子计算的脆弱性和易于出错。因此像量子纠错、脱散等问题都属于量子计算本身带来的本质困难,因此很难克服。乐观者则认为,上述困难可以在较短时间内予以克服,比如观察测量引起的“脱散”,1998年Los Alamos国家实验室与IBM公司就找出一种间接测量“量子比特”状态的办法,避免破坏量子的叠加态。2002年Wisconsin大学的研究者认为,利用已有的硅片制造技术,有可能在短期内制造出具有百万量子点(1024×1024)的计算机。
让我们再回到刚才的问题,什么时候可以制造出实用的量子计算机?由于人们对困难的估计不同,有的说几年,有的说几十年,也有的说需要几个世纪,仁者见仁,智者见智,但有一点却是相同的:那就是,量子计算机的研制不管成功与否,量子计算的研究一定会给人类未来的生活带来深远意义的影响,因此不管乐观者还是悲观者都把它作为21世纪重要的研究课题,并寄予厚望。
0 Comments:
发表评论
<< Home