量子计算机算法与应用研究
学科分类:计算机科学
湖北省沙市中学 谢晓啸
摘要
1.量子计算机
2.量子计算机算法
3.移动互联
4.云计算
5.经典计算机的局限
6.量子计算前景
二零一四年一月十二日
目 录
摘 要............................................................................................................................. Ⅰ
第1章 绪 论..................................................................................................................... 1
1.1 量子计算机的背景及意义................................................................................... 1
1.2 研究方法............................................................................................................... 1
1.3 这篇论文的主要内容........................................................................................... 1
第2章 正文......................................................................................................................... 2
2.1 经典计算机............................................................................................................. 2
2.1.1 为什么先谈“经典计算机”..................................................................... 2
2.1.2什么是经典计算机_____________________________________________________2
2.1.3经典计算机的局限性在哪里_____________________________________________2
2.1.4摩尔定律及摩尔定律的局限性___________________________________________2
2.2 量子计算机............................................................................................................. 3
2.2.1量子计算机的理论依据_________________________________________________4
2.2.2量子力学_____________________________________________________________5
2.2.3量子力学与计算机_____________________________________________________5
2.2.4量子计算机的信号____________________________________________________13
2.3 量子计算机现阶段的研究................................................................................... 19
2.4 量子计算机的“平民化”应用........................................................................... 22
结 论........................................................................................................................ 25
致 谢............................................................................................................................. 26
研究者:谢晓啸
第1章 绪 论
1.1 量子计算机的背景及意义
近十年以来,信息领域正以肉眼可见的速度发生着变化,从上世纪的桌面级应用正逐渐转变为移动型、互联性甚至于可穿戴型。我们常常讨论:未来是谁的?现在来说,答案是:未来是互联网的。不过,这里的互联网是移动的、是互联的。要想实现这样的巨变,究其原因还是核心的运算能力的提升。
然而,经典电子计算机在未来必定有发展上的局限性,这点我将会在下文中详细论述。为了满足移动互联时代的可移动、速度快的特点,对于量子计算机算法及其应用的研究很显然是极为必要的。
1.2 研究方法
经过对量子计算机的产生及原理的资料阅读,对经典电子计算机的资料阅读,在计算机上编程获得的实践,对当今新闻时事的解读和分析,对国外网站的资讯的了解,分析和汇总得到。为此,我专门自学了大学的量子力学教程(机械工业出版社),但因为我的知识能力及条件的限制,很难真正得到一台可编程的量子计算机供我测试,因此以下所有数据(如果未注明引用)是我在经典计算机上测得的,仅提供思路,对数据不承担责任。
1.3 这篇论文的内容
量子计算机算法及应用,以及与其相关的研究。
第2章 正文
2.1 经典计算机
2.1.1.为什么先谈“经典计算机”
英国数学家阿兰·麦席森·图灵率先提出了“图灵机”和“图灵运算”等重要概念。图灵机并不是机器装置,但通过这种将问题转换为数学模型的思想,能够制造出极其简单但运算能力极强的通用机。图灵在二战期间,制造过能够破译密码的装置,它虽然是由机械和马达构成,却因为构建它的数学思想,使它成为当今所有经典计算机的鼻祖,也可以说,它是经典算法的鼻祖。
2.1.2.什么是经典计算机
经典计算机(Computer)俗称电脑,是一种用于高速计算的电子计算机器,可以进行数值计算,又可以进行逻辑计算,还具有存储记忆功能。是能够按照程序运行,自动、高速处理海量数据的现代化智能电子设备。由硬件系统和软件系统所组成,没有安装任何软件的计算机称为裸机。可分为超级计算机、工业控制计算机、网络计算机、个人计算机、嵌入式计算机五类。
这里有个很重要的概念,冯诺依曼结构。
冯诺依曼结构中,计算机必须包括五大基本组成:输入设备,输出设备,储存设备、运算设备、控制设备和输出设备。可以说,即使是我所说的量子计算机也得按照冯诺依曼结构 来进行构建。
可以说,这样的机器就大致称得上经典计算机。
2.1.3.经典计算机的局限在哪里
经典计算机经过数代发展与演变,已经成为了大规模集成电路电子计算机,这种具以有数据库管理、网络管理和面向对象发展为特点的经典计算机,已经从军事、生命科学等高尖端领域普及到每个家庭,对经济社会的发展和世界格局产生了巨大影响。具体而言,经典计算所适用的领域量子计算机完全能做的更好,这主要包括:
①数值计算:诸如天气预报,卫星轨道,原子反应堆等计算,必须采用更为 高效的机器来运算;
②数据处理:如人口普查,*管理系统等需要储存大量数据与信息的领域;
③自动控制:诸如导弹于卫星的自动制导,都需要系统的实时运算来维持;
④计算机辅助设计与制造;
⑤人工智能:量子计算机的广泛运用必将对人工智能领域带来深刻变革。
2.1.4.摩尔定律及摩尔定律的局限性
摩尔定律是由英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出来的。其内容为:当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18个月翻一倍以上。这一定律揭示了信息技术进步的速度。
尽管这种趋势已经持续了超过半个世纪,摩尔定律仍应该被认为是观测或推测,而不是一个物理或自然法。预计定律将持续到至少2015年或2020年。曾经有人估计2010年国际半导体技术发展路线图的更新增长已经放缓在2013年年底,之后的时间里晶体管数量密度预计只会每三年翻一番。然而到2013年底Tick-Tock战略下的Atom再次精准无误的把摩尔定律推向一个高峰,但我们都在想,这样一味的提升晶体管数量和看似高明的架构改变,与原始社会的刀耕火种有何区别,经典计算机到底还能发展多久?
(图为摩尔定律的预测及检验)
2.2量子计算机
量子计算机(quantum computer)是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究。研究可逆计算机的目的是为了解决计算机中的能耗问题。
因而我所说的量子计算机更为确切的来说人们对“量子计算机算法”的研究。
2014年1月3日,美国国家安全局(NSA)斥资8千万美元研发用于破解加密技术的量子计算机。
(图为2014年美国新研发的超级量子计算机,来自网络未必可信)
2.2.1.量子计算机的理论依据
人们研究量子计算机最初很重要的一个出发点是探索通用计算机的计算极限。当使用计算机模拟量子现象时,因为庞大的希尔伯特空间而数据量也变得庞大。一个完好的模拟所需的运算时间则变得相当可观,甚至是不切实际的天文数字。理查德·费曼当时就想到如果用量子系统所构成的计算机来模拟量子现象则运算时间可大幅度减少,从而量子计算机的概念诞生。
量子计算机在1980年代多处于理论推导状态。1994年彼得·秀尔(Peter Shor)提出量子质因子分解算法后,因其对于现在通行于银行及网络等处的RSA加密算法可以破解而构成威胁之后,量子计算机变成了热门的话题,除了理论之外,也有不少学者着力于利用各种量子系统来实现量子计算机。
半导体靠控制集成电路来记录及运算信息,量子计算机则希望控制原子或小分子的状态,记录和运算信息。 1994年,贝尔实验室的专家彼得·秀尔(Peter Shor)证明量子计算机能做出离散对数运算,而且速度远胜传统电脑。因为量子不像半导体只能记录0与1,可以同时表示多种状态。如果把半导体比成单一乐器,量子计算机就像交响乐团,一次运算可以处理多种不同状况,因此,一个40比特的量子计算机,就能在很短时间内解开1024位电脑花上数十年解决的问题。
也就是说,经典计算机试图控制晶体从而进行运算,量子计算机通过控制分子或原子来进行计算,这样的效率比采用二进制编码的经典计算机要高得多。
2.2.2.量子力学
量子力学是描写微观物质的一个物理学分支,与相对论一起被认为是现代物理学的两大基本支柱,许多物理学理论和科学,如原子物理学、固体物理学、核物理学和粒子物理学以及其它相关的学科,都是以量子力学为基础。
这里我引用一个非常著名的不确定性原理来略为解释:
最著名的不相容可观察量,是一个粒子的位置和动量。它们的不确定性和的乘积,大于或等于约化普朗克常数的一半:
这个公式被称为不确定性原理。它是由海森堡首先提出的。不确定的原因是位置和动量的测量顺序,会直接影响到其测量值。海森堡由此得出结论,认为不确定性是由于测量过程的限制导致的。很显然,状态的多元将会给计算带来极大的变革。
在许多现代技术装备中,量子物理学的效应起了重要的作用。从激光、电子显微镜、原子钟到核磁共振的医学图像显示装置,都主要依靠了量子力学的原理和效应。对半导体的研究导致了二极管和三极管的发明,最后为现代的电子工业铺平了道路。人在核武器的发明过程中,量子力学的概念也起了一个关键的作用。
2.2.3.量子力学与计算机
正如事实所表现的那样,量子力学的结论都很容易被人看懂,那些经典的诸如薛定谔的猫的小故事也都是人所皆知的,量子力学的“玄”就在于量子力学结论的推论“玄”。
在经典力学中,位移,也就是两点之间的一条有向线段,它是矢量或者说是是数学上的向量,如果它的两端点不发生位移,那么这个位移不发生变化简直是天经地义的。然而,如果仔细分析,不难发现在两个确定的端点之间有无数条路径,这并无与我们的常识相矛盾,因为我们的“两点间线段最短”其一是在平面上,其二是这无数条路径中的“经典方案”。
实际上普通的数字计算机在0和1的二进制系统上运行,称为“比特”(bit)。但量子计算机要远远更为强大。它们可以在量子比特(qubit)上运算,可以计算0和1之间的数值。假想一个放置在磁场中的原子,它像陀螺一样旋转,于是它的旋转轴可以不是向上指就是向下指。常识告诉我们:原子的旋转可能向上也可能向下,但不可能同时都进行。但在量子的奇异世界中,原子被描述为两种状态的总和,一个向上转的原子和一个向下转的原子的总和。在量子的奇妙世界中,每一种物体都被使用所有不可思议状态的总和来描述。
想象一串原子排列在一个磁场中,以相同的方式旋转。如果一束激光照射在这串原子上方,激光束会跃下这组原子,迅速翻转一些原子的旋转轴。通过测量进入的和离开的激光束的差异,我们已经完成了一次复杂的量子“计算”,涉及了许多自旋的快速移动。
从数学抽象上看,量子计算机执行以集合为基本运算单元的计算,普通计算机执行以元素为基本运算单元的计算(如果集合中只有一个元素,量子计算与经典计算没有区别)。
以函数y=f(x),x∈A为例。量子计算的输入参数是定义域A,一步到位得到输出值域B,即B=f(A);经典计算的输入参数是x,得到输出值y,要多次计算才能得到值域B,即y=f(x),x∈A,y∈B。
量子计算机有一个待解决的问题,即输出值域B只能随机取出一个有效值y。虽然通过将不希望的输出导向空集的方法,已使输出集B中的元素远少于输入集A中的元素,但当需要取出全部有效值时仍需要多次计算。
理论上来说,同样是0~1的数值,半导体只有0或1(对应电路的关或开),而量子计算机则可以有至少40种不同状态,而且完成这40状态仅仅是在传统的2次之间!
(上图为我对经典计算机下的“计算器程序”进行反编译得到的)
(上图为本人一个采用迭代法解决多元方程问题的源码)
( 上图是我写的一个用经典计算机递推的例子)
查询资料可得经典计算机具有如下特点:
其输入态和输出态都是传统信号,用量子力学的语言来描述,也即是:其输入态和输出态都是某一力学量的本征态。如输入二进制串行,用量子记号,即。所有的输入态均相互正交。对经典计算机不可能输入如下叠加态:。
传统计算机内部的每一步变换都演化为正交态,而一般的量子变换没有这个性质,因此,传统计算机中的变换(或计算)只对应一类特殊集。
相应于经典计算机的以上两个限制,量子计算机分别作了推广。量子计算机的输入用一个具有有限能级的量子系统来描述,如二能级系统(称为量子比特(qubits)),量子计算机的变换(即量子计算)包括所有可能的正变换。
因此量子计算机的特点为:
一、 量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交;
二、 量子计算机中的变换为所有可能的正变换。得出输出态之后,量子计算机对输出态进行一定的测量,给出计算结果。
由此可见,量子计算对传统计算作了极大的扩充,传统计算是一类特殊的量子计算。量子计算最本质的特征为量子叠加性和量子相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些传统计算同时完成,并按一定的概率振幅叠加起来,给出量子计算机的输出结果。这种计算称为量子并行计算。
换而言之,上最后一个图实际上是利用了递推,但经典计算机由于只能有两种不同状态所以必须将其全部算出。但换一种思路,由量子力学知道,到达一个质点的路径不唯一,我们是否可以理解为:在重复的计算中,如果我们“早就知道最终结果,而其中的路径只是必然需要经历的”那么,我们是否就可以在已经尝试过一次后,直接计算出答案?直接“计算”出答案,这应当是计算机的极限了吧?听起来似乎像是不可能,但是从模糊数学的角度来看这就不足为奇了。举个通俗的例子:你要去操场上找个人,你拿出那人的体重、腰围、胸围以至于皮带手表的牌子向他人求助,别人未必会知道他,但如果你告诉别人他的体态、身形和显著特色那么他就好找得多。同样的思路,上面的递归经过一次运算,答案我是知道的,那么是否可以写成:
如上图所示,同样的答案,如果换用这种思路,时间由19990ms缩短到20ms,这真是惊人啊!
又例如量子计算机可以更好地处理多线程问题。以下是我编写的一个在经典计算机下的多线程运算程序。源码如下
测试过程如下:
可见多线程运算的优势不言而喻!
实际上,现在尖端领域的科学家已经实现线性方程组量子算法,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队的陆朝阳、刘乃乐研究小组,在国际上已经成功实现了用量子计算机求解线性方程组的实验。线性方程组广泛地应用于几乎每一个科学和工程领域,包括数值计算、信号处理、经济学和计算机科学等。比如与我们日常生活紧密相关的气象预报,就需要建立并求解包含百万变量的线性方程组,来实现对大气中各种物理参数(温度、气压、湿度等)的模拟和预测。而高准确度的气象预报则需要求解具有海量数据的方程组,假使要求解一个亿亿亿变量的方程组,即便是用现在世界上最快的超级计算机也至少需要几百年。
2009年,美国麻省理工学院教授塞斯.罗伊德(Seth Lloyd)等提出了用于求解线性方程组的量子算法,认为借助量子计算的并行性带来指数级的加速,将能远远超越现有经典计算机的速度。根据理论预计,求解一个亿亿亿变量的线性方程组,利用GHz时钟频率的量子计算机将只需要10秒钟的计算时间。这意味着一台40位(这合经典计算机采用如16位、32位、64位来计算位次不同)的量子计算机能在较短的时间内完成1024位经典计算机耗时数十年完成的计算。
2.2.4.量子计算机的信号
在前面我讲到了量子计算机的信号问题,
经典计算机采用称之为逻辑电路的信号处理方式。逻辑电路是一种离散信号的传递和处理,以二进制为原理、实现数字信号逻辑运算和操作的电路。分组合逻辑电路和时序逻辑电路。前者由最基本的“与门”电路、“或门电路”和“非门”电路组成,其输出值仅依赖于其输入变量的当前值,与输入变量的过去值无关—即不具记忆和存储功能;后者也由上述基本逻辑门电路组成,但存在反馈回路—它的输出值不仅依赖于输入变量的当前值,也依赖于输入变量的过去值。由于只分高、低电平,抗干扰力强,精度和保密性佳。广泛应用于计算机、数字控制、通信、自动化和仪表等方面。最基本的有与电路、或电路和非电路。查询资料可得逻辑电路具有以下特点:
非门:利用内部结构,使输入的电平变成相反的电平,高电平(1)变低电平(0),低电平(0)变高电
平(1)。
A |
B |
0 |
1 |
1 |
0 |
与门:利用内部结构,使输入两个高电平(1),输出高电平(1),不满足有两个高电平(1)则输出低电平(0)。
A |
B |
C |
0 |
0 |
0 |
0 |
1 |
0 |
1 |
0 |
0 |
1 |
1 |
1 |
或门:利用内部结构,使输入至少一个输入高电平(1),输出高电平(1),不满足有两个低电(0)输出高电势(1)
A |
B |
C |
0 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
1 |
1 |
1 |
1 |
与非门:利用内部结构,使输入至多一个输入高电平(1),输出高电平(1),不满足有两个高电平(1)输出高电平(1)。
A |
B |
C |
0 |
0 |
1 |
0 |
1 |
1 |
1 |
0 |
1 |
1 |
1 |
0 |
或非门:利用内部结构,使输入两个输入低电平(0),输出高电平(1),不满足有至少一个高电平(1)输出高电平(1)。
A |
B |
C |
0 |
0 |
1 |
0 |
1 |
0 |
1 |
0 |
0 |
1 |
1 |
0 |
异或门:当输入端同时处于低电平(0)或高电平(1)时,输出端输出低电平(0),当输入端一个为高电平(1),另一个为低电平时(0),输出端输出高电平(1)。
A |
B |
C |
0 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
1 |
1 |
1 |
0 |
同或门:当输入端同时输入低电平(0)或高电平(1)时,输出端输出高电平(1),当输入端一个为高电平(1),另一个为低电平时(0),输出端输出低电平(0)。
A |
B |
C |
0 |
0 |
1 |
0 |
1 |
0 |
1 |
0 |
0 |
1 |
1 |
1 |
由上述资料显然易得,传统的逻辑电路在二进制编码下,的确有极大优势,但倘若换在具有40多种状态的量子计算机下,这不是简洁,这是乏力。
(上图为我正在工作的一颗CPU的信息)
(上两张图是INTER第四代智能CPU i7 4770k的信息,由于我没有量子计算机,所以不能测评)
容易发现,即使是在做工如此好的情况下,单线程计算依然是考察一个机器性能核心标准,但谁又能保证仅靠逻辑电路就能处理得及时呢?谁又能保证ALU(逻辑运算单元)如此可靠?这里谈到另一个体现量子计算机优势的项目,浮点运算。
当我们用不同的电脑计算圆周率时,会发现一台电脑的计算较另一台来讲结果更加精确。或者我们在进行枪战游戏的时候,当一粒子弹击中墙壁时,墙上剥落下一块墙皮,同样的场面在一台电脑上的表现可能会非常的呆板、做作;而在另外一台电脑上就会非常生动形象,甚至与我们在现实中看到的所差无几。这都是浮点运算能力的差异导致的。
如果是实数的话,就不是这样了,机器有两种办法表示实数,一种是定点,就是小数点位置是固定的,一种是浮点,就是小数点位置不固定,计算方法也比较麻烦,通常会比整数运算代价大很多
FPU->Floating Point Unit,浮点运算部件
BCD->Binary Coded Decimal 压缩的二进制数,是用4个位来表示数字0~9,一个byte表示两个十进制数,比如01111001表示79
简单来说,经典计算机中的实数都是以约数的形式来表示的,即浮点小数,在经典计算机中它是一个不确定的数,比如讲实数 2.1236547899E-0.02转换为字符串,您可能会看到0.021236479999就是这个道理。
然而量子计算机是通过量子分裂式、量子修补式来进行一系列的大规模高精确度的运算的。其浮点运算性能是经典计算机所无法比拟的,量子计算机大规模运算的方式其实就类似于普通电脑的批处理程序,其运算方式简单来说就是通过大量的量子分裂,再进行高速的量子修补,但是其精确度和速度也是经典计算机望尘莫及的。
这里有一个生物学上细胞分裂的例子:
如果就这样发展下去,的确是令人振奋啊!
2.3 量子计算机现阶段的研究
因本人调节限制,以下测试内容部分来自资料上。由于是英文网站,我借助翻译软件的翻译可能一些曲解。
D-Wave系统“量子计算机看向更大,更昂贵,并且速度比常规的
D-Wave系统,加拿大启动,最近启动了一个定制的,价值数百万美元,液态氦冷却的电脑,它说,在量子力学奔跑的野兽。
然而,d波认为,它现在可以构建它们。它已经从投资者包括高盛和德丰杰提出了一些6500万美元,招募来自谷歌和NASA的合作,积累了50项专利,并转化其办公室变成一个世界级的量子实验室。
是薛定谔的猫真的出包?
要正确地看待事物,认为在量子计算中最著名的壮举之一,是15号的保理(是的,这会是3倍5)。问题是,一个国家的最先进的今天的量子系统可以玩花样只有少数量子比特,或在量子计算机的量子比特的信息,基本单位。而一个常规的位可以处于两种状态,0或1的一个,一个量子位可以是0,1,或0和1的叠加。通过链接和操纵量子比特,可以开展,以解决以更少的步骤问题,从而比普通电脑更快的量子算法。有了足够的量子比特,几百到几千,量子计算机将能够破解一些最难的代码,搜索数据库superquickly,并模拟复杂的量子系统,如生物分子。
“正因为如此,我非常怀疑的D-Wave的索赔,该公司已经生产了128量子比特的量子计算机,”他(d波,笔者注)说,增加的达到10 000量子比特在这一点上是谈话“的广告炒作。”
安东尼·莱格特,一个物理学家在伊利诺伊大学厄巴纳 - 尚佩恩分校和诺贝尔物理学奖得主说,d波已声称“没有被普遍认为是属实的社区。”
但是这一切都为真,说乔迪玫瑰,d波的共同创始人和首席技术官。“我们正在取得良好的进展,”他说,并解释说,他们目前正在测试3个128量子比特系统,可在将它们用于研究机构的安装。
D-Wave的系统使用与金属铌含约瑟夫森结两超导体由绝缘体隔开的小环的芯片。当芯片被冷却到非常低的温度下,循环表现出量子特性周围流动微小的电流,并且可以使用的方向来表示一个量子比特的状态:逆时针为0,顺时针为1,和电流两种方式代表叠加的0和1。
D-Wave的超导量子比特并不是新的,和其他团体使用类似的设备。但是大多数群体正在试图建立的量子逻辑门,使所有计算操作可以派生一个被称为门模型-d波的做法采取了不同的方法,称为绝热量子计算。这里的要点是:你初始化量子比特的集合,它们的最低能量状态。然后,您永远那么温和(或绝热)打开量子位之间的相互作用,从而编码量子算法。在结束时,量子位漂移到一个新的最低能态。那么你读出的量子比特来得到结果。
有了足够的量子比特,d波认为,它可以击败当今最好的逼近解决金融工程,物流,机器学习和生物信息学困难的优化问题的方法,无论是得到同样的答案更快或得到一个更精确的解决方案。
(资料引用完)
实际上现在有如下量子计算机物理系统:
[1]液态核磁共振量子计算机(liquid-state NMR quantum computer)
[2]固态核磁共振量子计算机(silicon-based NMR quantum computer)
[3]离子陷阱(ion trap)
[4]量子光学(quantum optics)
[5]腔室量子电动力学(cavity QED)
[6]超导体方案
[7]拓扑量子计算(topological quantum computing)
[8] 量子点(quantum dot)
但是这些结构(包括我上文提到的D-WAVE)都有一些缺陷:
正如前文提到的,量子计算性能极其优越,但现阶段量子计算机的实用性处理并不好,而且其前景也并不好。例如目前的唯一商用量子计算机D-Wave One,在散热方面亦有非常苛刻的要求,自启动起其必须全程采用液氦散热,以保证其在运行过程中足够“冷静”。D-Wave的处理器电路是由金属铌制成的,后者然后变成极低温的超导体,这样处理器的温度可以低至零下273.15°。D-Wave处理器被封装在一间屏蔽室内的柱状冷库里面,处理器外面还包裹了16层的屏蔽,可以阻止一切电磁干扰。而包含有量子位的处理器则是由耦合器连接的,外面是一圈可编程的磁存储器。量子计算机被液氦冷冻在5mK(毫开)温度下,也就是-273.145℃,只比绝对温度-273.15℃高0.005℃,比星际空间还要冷。
当然了,这样的产品自然不是一般老百姓可以消费的。据称,一台D-Wave One的售价高达1000万美元,而且这个价格还未确定是否包括其中的液氦散热系统。
不过当年电子计算机出现时,有电脑公司生成绝对不会有个人想要拥有电脑,显然他错了,因此我没理由不相信不远的将来随着量子算法的进一步发展和人们对量子力学的深入研究,量子计算机将会做到真正的“桌面级”!当然,现阶段量子计算除了在科技研究、物理研究和生命工程方面的应用外的确还有我们在生活中可以随时接触到的应用领域。
2.4量子计算机的“平民化”应用
正如我一开始所提到的,这是一个移动互联的时代,现在的移动终端(譬如智能手机)在很多方面超越了上世纪的PC,当然随着技术的发展这似乎合情理。但无论是ARM、X86、Inter架构,您有信心保证他能极其高效的发展起来吗?我看来,移动应用是很完美,但是移动终端毕竟有着体积、功耗和散热的限制。
(上图为性能强劲的高通骁龙800处理器)
(想在移动终端上进行如此大量的运算吗?)
于是,“云计算”应运而生。
计算能力云计算(英语:Cloud Computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机和其他设备,主要是基于互联网的相关服务地增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源。云是网络、互联网的一种比喻说法。过去在图中往往用云来表示电信网,后来也用来表示互联网和底层基础设施的抽象。狭义云计算指IT基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需资源;广义云计算指服务地交付和使用模式,指通过网络以按需、易扩展的方式获得所需服务。这种服务可以是IT和软件、互联网相关,也可是其他服务。它意味着计算也可作为一种商品通过互联网进行流通。
上文中提到的D-Wave量子计算机实际上已经通过安全的网络与局部地区连接起来,将“计算能力”作为商品来出卖,这意味着量子计算机的确已经运用于我们的生活。
我们知道2013年阿里巴巴集团的“阿里云”成为了继Google、Facebook后的世界第三大云系统,并举办了云博会。
有关专家认为,云计算产业之所以能迅猛发展,是因为具有五大独特优势:在岸和离岸业务一起发展,不仅为本地信息化升级,更要参与分享世界性的“云蛋糕”;硬件与软件一起发展,以数据中心为平台,把增值服务的附加值最大化;集中布局的云数据中心能够实现基础设施共享和数据中心兼容,使得综合成本降低20%;制度创新,实现保障国家信息安全和保护跨国公司数据隐私的“双保”;实现存放数据的下单方、运行数据方和重庆多方共赢的可持续盈利模式。
以“云计算”为基础架构产品满足了多样化的需求,并能在此基础上,帮助客户(比如银行、保险公司)实施他们的信息生命周期战略,加强关键信息资产的安全性,利用其内容实现竞争优势,自动化其数据中心操作,减少用电及碳排放量等等。并且能集中式处理使得管理和监控系统接入使内部安全风险达到最小化,有效提高了管理的安全性。内部没有硬盘、软驱、光驱等最易出故障的机械部件以及所有的应用程序的运行和存储都在服务器进行,采用集中式管理几乎不需对其进行维护与升级。
以上论述了这么多关于“云计算”,就是为了表明由于经典计算机的限制,想要构建一个庞大的云系统很不容易。纵使量子计算机在短期内难以桌面化,但借助它强大的计算能力,我有这样一个构想:
一个地区的用户通过一定的协议(类似于无线网络入网)与这一地区的量子计算机连接在一起,通过4G、WIFI(当然这些网络方式显然还不够高效)来传输数据。届时,移动终端将仅配置输入输出设备和必要的协处理器、CACHE、极速网络模块,这样移动终端仅仅提供一个UI,所有的处理、运算和存储都将交付给量子计算机来处理。想象一下,在不久后,您的移动终端将会更轻薄(移除了运算和储存单元),而您可以随意的在移动终端(譬如可穿戴设备——谷歌眼镜)上享受游戏大作、渲染您的产品、在等公交车时构建您的多人实时工程。不仅如此,无论是电子交易还是您的私人信息都可以交付给您所在的地区的量子计算机来保管。这还会导致世界上小型工作室更多,志同道合的人虽相隔天涯海角,合作的时候再也不是简单的文字、图像和音频视频,而是真正能通过跨地区的量子计算机连接做到真正意义上的“合作”。
显而易见,这门技术的发展还会还会给世界格局带来不亚于前四次变革的影响。那些发展中或欠发达地区,可以在有关组织的协调下使用邻近地区的量子计算机,从而给他们的生活带来极大的便捷,这也必将必将使和平进一步发展。
(4G给量子计算带来民用希望)
结 论
正如我一开始的论述,这是一个移动互联的时代,世界会因量子计算机及量子计算机算法发生改变的。它将在军事到农业、生物、医药、物理、化学和经济生活的各个领域引起改变,这种改变将是毋庸置疑的。但这里有个我们需要注意的:
改变我们的,不是科技,是未来!
这是说,我们不应仅仅局限于理论,我们因不断实践来促进量子计算机的发展。
本人才疏学浅,受限于学识与条件,论文中多有疏漏还望指出!
二零一四年一月十二日
以下文献多来自互联网,其中多有外文网站,恕不一一注明。
1.http://www.baidu.com 百度搜索
2.http://wikipedia.org wiki百科
3.http://hi.baidu.com/chaobs Chaobs的空间