当前位置:首页 > 嵌入式 > 嵌入式新闻
[导读]5月3日,世界第一台超越早期经典计算机的基于单光子的量子模拟机问世,这台量子计算机由中国科学技术大学潘建伟、陆朝阳、朱晓波,浙江大学王浩华教授研究组联合研制。

5月3日,世界第一台超越早期经典计算机的基于单光子的量子模拟机问世,这台量子计算机由中国科学技术大学潘建伟、陆朝阳、朱晓波,浙江大学王浩华教授研究组联合研制。

 

 

其实这并不是中国第一次公开在量子计算方面取得的成绩,在2016年,央视新闻报道:中国量子计算机取得突破性进展,中国科技大学量子实验室成功研发了半导体量子芯片和量子存储。在上个月,中国科学院院长白春礼院士透露,中科院正在研制中国首台量子计算机,预计在最近几年内有望研制成功。

那么量子计算到底什么?相对于现在使用的经典计算机,又有什么优势呢?本次发布的量子模拟机性能究竟怎么样呢?

经典计算机发展遭遇瓶颈

在过去几十年中,由于计算机技术飞速发展,芯片的集成度和制造工艺突飞猛进。但随着制造工艺的进步,晶体管栅长不断变小的同时,也带来了副作用——那就是会使电子移动的距离缩短,容易导致晶体管内部电子自发通过晶体管通道的硅底板进行的从负极流向正极的运动,为了解决这个问题,国外巨头开发出SOI技术和鳍式场效电晶体技术,通过在源极和漏极埋下一层强电介质膜,或者增加绝缘层的表面积来增加电容值,防止发生电子跃迁,这使得摩尔定律得以延续。

但随着制造工艺发展到7nm,如果要进一步缩短晶体硅的栅长,又会发生隧穿效应,粒子迅速穿越势垒——在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒。

 

 

打个比方,就是只如果你面前有一道10米高墙,按照经典力学,如果找不到合适的工具,你就翻不过去。但对于微观粒子来说,由微观粒子波动性,可以直接穿墙而过。正是由于隧穿效应使得摩尔定律在当下已然失效,经典计算机发展陷入瓶颈。经典计算机发展中已经逐渐遭遇功耗墙、通信墙等一系列问题,传统计算机的性能增长越来越困难。最典型的例子莫过于CPU巨头Intel,在2013年之后,Intel的CPU性能增长比较有限,因而被网友调侃是“牙膏厂”。在不久前更是取消了有20年历史的英特尔开发者论坛。这其中的原因之一就是撞上了性能天花板。

在经典计算机发展遭遇瓶颈的情况下,探索全新物理原理的高性能计算技术就成为必由之路。

量子计算的优势

 

 

量子计算机具有极大超越经典计算机的超并行计算能力。例如,如果是求一个300位数的质因数,目前的超算估计用十几万年的时间来完成,而量子计算机原则上可以在很短的时间内完成。因此,量子计算在核爆模拟、密码破译、材料和微纳制造等领域具有突出优势,是新概念高性能计算领域公认的发展趋势。

中国科学院院长白春礼院士曾表示:使用亿亿次的天河二号超级计算机求解一个亿亿亿变量的方程组,所需时间为100年。而使用一台万亿次的量子计算机求解同一个方程组,仅需0.01秒。

本次发布的两台量子计算原型机性能到底咋样

以目前的情况看,低温超导系统和量子点系统由于具有较好的可拓展性,公开的研究成果也比较多。

就量子点系统而言,中国暂时领先西方国家。在2016年,中国科技大学量子实验室成功研发了半导体量子芯片由砷化镓材料制造,用量子点(用半导体工艺做出一个模拟原子能级的结构)实现量子比特,逻辑比特数量为3个。半导体量子芯片精度达到90%,在量子纠错码的辅助下,该量子芯片的精度也达到了满足容错计算的精度。相比之下,国外目前还停留在四个量子点编码的两个比特,在该领域中国已经达到国际领先水平。

本次发布会上公开的是两个量子计算原型机,一种基于低温超导系统,一种基于线性光学,两个量子计算原型机都有10个量子比特。超过了美国航天航空局、加州大学圣芭芭拉分校、谷歌宣布实现的9个超导量子比特的高精度操作。

那么,这两台量子计算原型机性能究竟怎么样呢?

 

 

这两台量子计算原型机虽然符合标准的量子计算概念,但都是专用机,而非通用机——超导系统那一台原型机是用来做线性方程组求解的;基于线性光学的原型机是用来做玻色取样的。

在性能上,实验测试表明,该原型机的取样速度不仅比国际同行类似的实验加快至少24000倍。同时,通过和经典算法比较,也比人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)运行速度快10-100倍。

 

 

换言之,就是这两台量子计算原型机只是在线性方程组求解和玻色取样任务时,与人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)相比较,运行速度快10-100倍。

因此,这两台量子计算原型机是专用机,而且对比的对象也是人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)。从中可以看出,这两台量子计算原型机只是量子计算机发展历程中的一小步。虽然在未来也许会有与ENIAC、TRADIC类似的历史地位,但无论从性能,还是从通用性的角度上说,都不宜过度拔高这两台有10个量子比特原型机的先进性。

 

 

同时,也不能因此就贬低这两台量子计算原型机。毕竟不积跬步,无以至千里,不积小流,无以成江海。只要不断取得技术突破,夯实技术储备,就有可能制造出具有超越“神威太湖之光”计算能力的量子计算机。

需要说明的是,相对于两个量子计算原型机实现了10个量子比特的成绩,中国科研团队的量子操作水平格外出色——这种量子计算专用机运行一次,就相当于做一次超高难度的物理实验。能够制造并使用这种量子计算专用机需要非常高的操作水平。

因而中国发表两台有10个量子比特原型机,折射出在量子操作水平上,中国科研团队已经处于暂时领先地位。而且潘建伟研究团队还计划在2017年年底实现大约20个光量子比特的操作。

一、量子计算靠的是“叠加”和“纠缠”

量子计算是一种基于量子效应的新型计算方式,它通过大量量子位的受控演化来完成计算任务。

 

 

量子计算机原理

所谓的量子位是一个具有两个量子态的物理系统,一般在量子信息学中,量子是最小的不可分割的能量单位,基本单位就是量子位,或者叫做量子比特。而量子态呢,就是电子做稳恒的运动,具有完全确定的能量。

量子叠加

 

 

1个量子位同时有0和1两个状态,相应的N个量子位可同时存储2的N次方个数据。所以,量子计算机操作一次的效果就等于同于普通电子计算机进行2的N次方次操作的效果,再直白点,就是量子计算能一次完成2的N次方个数据的并行处理,这样计算速度完全秒杀传统计算机。

量子纠缠

还有一个名词你要了解——量子纠缠,处于纠缠态的两个粒子有一个奇妙特性,一旦对其中一个粒子进行测量确定了它的状态,那么就立即知道另一个粒子所处的状态。即使相距遥远距离,一个粒子的行为将会影响另一个的状态,爱因斯坦把这称之为“鬼魅似的远距作用”。

因此,当量子系统的状态变化时,纠缠态的粒子状态都可以发生变化。量子计算就是利用了量子叠加和量子纠缠的特点实现了高超的并行计算能力。

 

 

 

超导量子计算机

高性能计算领域的“小公举”

举个例子,“天河二号”超级计算机要是求解一个亿亿亿变量的方程组,要耗上100年。而使用一台万亿次的量子计算机求解同一个方程组,仅需0.01秒。

如果是求一个300位数的质因数,目前的超算估计用十几万年的时间来完成,而量子计算机原则上可以在很短的时间内完成。因此,量子计算在核爆模拟、密码破译、材料和微纳制造等领域具有突出优势,是新概念高性能计算领域公认的发展趋势。

计算能力超越早期经典计算机

想要判断量子计算到底牛不牛、牛在哪,学术界有三个达成共识的指标性节点:计算能力超越早期经典计算机是第一步,再是超越商用CPU,最后是超越超级计算机。

上述我们提到的这台光量子计算机,已经比人类历史上第一台电子管计算机和第一台晶体管计算机运行速度快10倍至100倍。

本次发布会上公开的两个量子计算原型机,一种基于低温超导系统,一种基于线性光学。超导系统那一台原型机是用来做线性方程组求解的,这台原型机实现了目前世界上最大数目——10个超导量子比特的纠缠,并在超导量子处理器上实现了快速求解线性方程组的量子算法。

 

 

基于超导量子处理器的线性方程解法演示

基于线性光学的原型机是用来做“玻色取样”的。实验测试表明,该原型机的取样速度比国际同行类似的实验加快了至少24000倍。

如果现在传统计算机的速度是自行车,量子计算机的速度就好比飞机。

10个量子比特的纠缠是个什么概念?

两个量子计算原型机都有10个量子比特的纠缠,这是一个什么概念?前面我们提到,量子计算需要利用大量互相纠缠的量子比特才能实现。而多粒子纠缠的操纵也一直是量子计算的技术制高点,一直是国际角逐的焦点。

2015年,谷歌、美国航天航空局和加州大学圣芭芭拉分校宣布实现了9个超导量子比特的高精度操纵。显然,这个记录已经被中国科学家团队首次打破。

 

 

十超导量子比特的纠缠态

这种量子计算专用机运行一次,就相当于做一次超高难度的物理实验,能够制造并使用这种量子计算专用机需要非常高的操作水平。中国的研究团队还计划在2017年年底实现大约20个光量子比特的操作。

三、量子计算机的“心脏”研制到底有多难?

正如在电子计算机中CPU扮演了关键的角色,在量子计算机研制中,量子芯片同样是“心脏”,至关重要。

 

 

量子计算机处理器

如果将来的量子计算机要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。但这种规模的量子比特构成的芯片目前的技术还做不到。

而且单纯有数量足够多的量子比特还是不行的,因为量子比特并不稳定。量子技术需要利用量子相干性才可以做计算,彼此有关的量子比特串列,会作为一个整体动作,只要对一个量子比特进行处理,影响就会立即传送到串列中多余的量子比特。但是,每个量子比特都非常脆弱,很容易被环境干扰,使量子的相干性丧失,而且干扰的速度随着体系的扩大而呈指数增加,量子比特越多,干扰的速度也越快。

 

 

中国科学院量子计算实验室 资料图

这时候就必须采用纠错码技术,鉴定噪声的可能状态,在假定了噪声特性的基础上,构建纠错码系统,构建纠错容错的理论体系。比如通过纠错码过程对数个物理比特做冗余,最后生成了一个逻辑比特,逻辑比特有很好的容错特性,可以纠正干扰引起的所有错误。

如果能够达到容错预值,在外界噪声低到一定水平,操作达到一定精度之时,就可以满足容错计算。那这个精度要多高呢?以杜江峰院士研究组的研究成功为例,在传统的纠错码下量子逻辑门精度达到了99.99%,其单比特门精度已经满足容错计算的需求。

总而言之,要想研制超越现有电子计算机的量子计算机,首先要有满足容错计算的需求的逻辑比特,然后进行系统扩展,实现数十个、上百个逻辑比特,而且都达到满足容错计算的精度,这样就可以得道性能出色的量子芯片,然后在结合控制系统、测量装置等硬件和编程、算法等软件制造出量子计算机。

 

 

四、其意义不亚于核武器

那么,量子计算机主要有哪些应用前景,又和我们的生活有什么相关呢?

包括量子计算机在内的量子技术在军事应用方面有着无与伦比的广阔前景,量子隐形通信系统将建立在各类作战指挥控制体系之间和各种侦察预警系统、主要作战平台以及空间武器系统之中,从而构建出量子信息化战场的通信网络,以其超大信道容量、超高通信速率等特性,在未来的信息化战争中扮演无可替代的角色。甚至有人认为,量子计算的意义不亚于核武器……

在医学检测、药物设计、基因分析、各种导航等方面它也将起到巨大的作用,会给我们的生活带来极大的改变。比如天气预测,量子计算机可以一次分析所有数据,向我们提供更好的模型,精准地显示恶劣天气会在何时何地出现,就像这两天北京的沙尘暴,可以做到提前预防。“我们现在的天气预报只能预报几天,因为如果要预报第六天、第七天,计算的时间可能需要100天,而100天后再来预测第六七天的天气就没什么意义了”,潘建伟说。

结语

“量子计算机是一项颠覆性的技术,一旦成功研发,就可以破解现在所有的密码,另外它还可以解决大数据等等问题。” 中国科学院院士、中国科学技术大学教授郭光灿曾说。

 

虽然,目前的技术成果距离真正建成性能优于传统经典计算机的标准量子计算机来说依旧有一定难度。但在量子计算方面,中国的多项成果都已打破世界记录,我们也期待超过经典电子计算机的标准量子计算机能够早日问世。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

随着信息技术的迅猛发展和大数据时代的到来,机器学习成为了人工智能领域中的核心技术之一。机器学习是通过模拟人类学习行为,使计算机系统能够从数据中自动发现规律、提取特征并进行预测和决策的过程。它在诸多领域取得了广泛的应用,包...

关键字: 计算机 人工智能 机器学习

随着大数据时代的到来,数据处理成为了一项至关重要的任务。传统的数据处理方法往往面临着效率低下、准确性不高等问题,而机器学习技术的兴起为数据处理带来了全新的解决方案。本文将深入探讨机器学习在数据处理中的应用,并分析其优势和...

关键字: 数据处理 计算机 机器学习

机器学习是人工智能领域的一个重要分支,它使用各种算法来使计算机系统能够从数据中学习和改进,而无需进行明确的编程。在机器学习的广阔领域中,有多种算法被广泛应用,每种算法都有其独特的适用场景和优势。本文将详细介绍机器学习中的...

关键字: 机器学习 人工智能 计算机

随着信息技术的飞速发展,机器学习(Machine Learning)作为人工智能领域的重要分支,正在逐步改变我们生活的方方面面。那么,什么叫做机器学习呢?简单来说,机器学习是一门研究如何让计算机从数据中自动获取知识和技能...

关键字: 机器学习 人工智能 计算机

随着信息技术的飞速发展,数据已经成为现代社会的重要资源。数据挖掘和机器学习作为处理和分析数据的两大关键技术,在多个领域得到了广泛应用。尽管它们在某些方面存在重叠,但数据挖掘和机器学习在定义、目标、方法以及应用场景等方面存...

关键字: 数据挖掘 机器学习 计算机

计算机的历史可以追溯到公元前的古代算盘和查尔斯·巴贝奇的“分析机”构想。然而,现代意义上的计算机起源于二战时期对复杂军事计算需求的响应。1941年,美国宾夕法尼亚大学开发出了ENIAC(Electronic Numeri...

关键字: 计算机 云服务

自二十世纪以来,计算机技术经历了从机械计算装置到如今高度智能化、微型化的巨大飞跃,成为人类科技进步的重要推动力。电脑的发展史是一段充满创新与突破的历史,以下将按照时间顺序概述这一发展历程。

关键字: 电脑 计算机

计算机网络是当今信息化社会中不可或缺的基础设施,它将世界各地的计算机系统及其附属设备紧密联系在一起,实现了信息的高速传输与共享资源的有效利用。计算机网络的定义可以归纳为:计算机网络是一系列分布在不同地理位置、具备独立功能...

关键字: 计算机 信息交互

随着科技的不断进步,人工智能(AI)已成为当今世界的热门话题。它以其强大的计算能力和深度学习能力,在多个领域展现出巨大的应用潜力。本文将对人工智能技术进行详细的探究,包括其定义、发展历程、主要技术、应用领域以及面临的挑战...

关键字: 人工智能 深度学习 计算机

4月1日消息,戴尔在中国的PC销量持续下滑(份额已被华为超越),这迫使他们不得不采取更多的裁员措施。

关键字: 戴尔 PC 计算机
关闭
关闭