云网牛站
所在位置:首页 > Linux新闻 > 超导、半导体量子点、离子阱、光学、量子拓扑和量子退火介绍

超导、半导体量子点、离子阱、光学、量子拓扑和量子退火介绍

2021-03-02 15:25:07作者:本源司南人稿源:本源量子网

超导、半导体量子点、离子阱、光学、量子拓扑和量子退火都是什么概念?简单的说,它们都是主流的量子计算技术路线,以下介绍它们,以便大家能够更深刻的了解量子计算。

超导、半导体量子点、离子阱、光学、量子拓扑和量子退火介绍

 

前言

近年来发展加速,但仍面临量子比特数量少、相干时间短、出错率高等各种难题。

目前,量子计算整体上仍然处于基础理论研究和原型产品研发验证阶段,多项关键技术仍有待突破。全球各大科技巨头纷纷选用了不同的技术路线来进行量子计算的研究。主流的技术路线有超导、半导、离子阱、光学、量子拓扑以及量子退火等。每种路线各有优劣势,至今没有任何一条路线能够完全满足实用化要求并趋向技术收敛。但有网友建议,最好紧跟着世界头号强国的方向,或者在有精力的前提下,全都试试。

 

1、超导

超导量子计算被普遍认为是最有可能率先实现实用化量子计算的方案之一,势头正盛的超导体系备受谷歌、IBM、英特尔等科技巨头的青睐,除此之外,国内的本源量子、北京量子院等公司机构也布局了此技术路线。

2016 年 12 月,中科大潘建伟团队首次实现了 10 个光子比特和 10 个超导量子比特的纠缠。

2017 年 11 月,IBM 首次构建了50 量子比特的处理器。2018 年 3 月,谷歌量子人工智能实验室发布的Bristlecone量子芯片,可实现72个量子比特长度上的单比特门操纵,单量子比特门最佳保真度达到了99.9%。

2018年8月,Rigetti Computing 宣布在开发一个 128 量子比特量子计算系统。

2019年1月,清华大学首次利用单量子比特实现了精度为 98.8%的量子生成对抗网络,未来可应用于图像生成等领域。

2019年4月,中科大潘建伟团队首次实现了 12 个超导比特的纠缠。

2019年8月,中科大实现 24 量子比特处理器,并进行多体量子系统模拟。

2020 年9月 12 日,本源量子公司上线了中国首个接入实体量子计算机的量子计算云平台。

参考:量子计算机不能取代现在的电脑,看好量子计算技术的超导路线

 

2、半导体量子点

量子点是在把激子在三个空间方向上束缚住的半导体纳米结构,它是一种重要的低维半导体材料,其三个维度上的尺寸都不大于其对应的半导体材料的激子玻尔半径的两倍。硅量子点,是量子点实例中的一部分。通过向纯硅中加入电子,科学家们造出了硅量子点这种人造原子,运用微波控制电子的量子态。硅的优势在于,可以利用传统的微电子工业几十年来积累的大规模集成电路制造经验。除此之外,硅量子比特比超导量子比特更加稳定,但量子纠缠数量较少,需要保持低温。

英特尔量子计算的硬件研发团队负责人吉姆·克拉克(Jim Clarke)表示,用硅制造量子比特更容易达到要求的量子比特数目。

2017 年开始,英特尔先后推出 17 量子比特和 49 量子比特的超导芯片,随后在2018 年 2 月展示了一个 2 量子比特自旋量子计算机,它可以实现执行两个简单的量子算法的编程。英特尔还在其 300 毫米制程技术上发明了自旋量子比特制造流程,能和英特尔先进的晶体管技术一样,在同一个设施中制造。

2019 年 5 月,新南威尔士大学实现了保真度为 98%的双比特逻辑门。本源量子成功研制半导体2 比特量子处理器玄微。

 

3、离子阱

离子阱技术原理是利用电荷与电磁场间的交互作用力牵制带电粒子体运动,并利用受限离子的基态和激发态组成的两个能级作为量子比特,是一种将离子通过电磁场限定在有限空间内的设备。

它并不是一个很新颖的装置,早在50年代末,离子阱就被应用于改进光谱测量的精确度。在应用于量子计算机中时,离子阱量子计算机相比于超导量子计算机最大的优势就是全连接性。

近几年部分公司大规模开展离子阱量子计算机的研发,如美国的霍尼韦尔和IonQ、英国的 UQ(Universal Quantum以及国内的启科量子等。

2018年12月,IonQ实现79位处理量子比特和160位存储量子比特。

作为工业巨头的霍尼韦尔,在2018年宣布进军量子计算领域,采用离子阱技术实现量子计算,并于2020年6月推出了64量子体积的量子计算机。

2020年8月,美国杜克大学和马里兰大学的研究者设计出了在低温下运行的全连接的 32 比特离子阱量子计算机寄存器,相比霍尼韦尔6比特全连接提高了5倍,是目前公开最多量子比特全连接的技术架构。

2020年10月,霍尼韦尔将量子体积提升为 128,但IonQ宣布在 32 量子比特离子阱量子计算机上实现预期超过400万量子体积。

 

4、光学

光量子是传递电磁相互作用的基本粒子,是一种规范玻色子,在 1905 年由爱因斯坦提出,1926 年由美国物理化学家吉尔伯特·路易斯正式命名。

2017 年 5 月,中科大潘建伟和陆朝阳等人宣布造出了世界上第一台超越早期电子计算机的光量子计算机。

2018 年 5 月,上海交通大学物理与天文学院金贤敏第 10 页团队发表了节点数达 49×49 的光量子芯片的研究成果。

2018 年 7 月中科大首次实现 18 位光量子纠缠操控。

2019 年 12 月,中科大在国际上首次实现了 20 光子输入 60×60 模式干涉线路的玻色取样量子计算,输出了复杂度相当于 48 个量子比特的希尔伯特态空间,其维数高达370万亿。

 

5、量子拓扑

在超导等架构下,量子比特的数量一多,错误率就会急剧上升。错误就来自局域噪音(Local Noise)。拓扑量子比特是通过基本粒子的拓扑位置和拓扑运动来处理信息的。只需要找到一种特殊的粒子,让这几个粒子在时间空间上进行交换,它们的轨迹就相当于在绳子上打不同的结,从而代表着不同的信息。信息的存储只依赖于交换顺序而不依赖于交换的具体路径,所以拓扑量子计算对局部的微扰是免疫的。

2005 年,在微软首席研究战略官 Craig Mundie 的支持下,拓扑数学家 Michael Freedman 在加州圣芭芭拉建立了一个实验室——StationQ,并开始招募全球最杰出的凝聚态物质和理论物理学家、材料学家、数学家和计算机科学家,一起构建拓扑量子比特。拓扑量子比特的构建需要马约拉纳费米子,它的反粒子就是自己本身,状态非常稳定。

2018 年,代尔夫特理工大学的 Leo Kouwenhoven 团队在Nature 发文,给出了马约拉纳费米子存在的强有力证据。微软量子计算软件部门负责人 Krysta Svore 表示,他们可以在 2023 年之前制造第一台拥有 100 个拓扑量子比特的量子计算机,这个具有 100 个拓扑量子比特的拓扑量子计算机的运算能力,最高可以相当于 1000 个逻辑量子比特的量子计算机。

 

6、量子退火

目前量子计算机可分为量子逻辑门计算机和量子退火计算机,前面几种技术路线都是构建量子逻辑门计算机提出的,基于量子逻辑门的量子计算机就是所谓的通用量子计算机。量子退火机则不需要量子逻辑门,而是通过伊辛模型(Ising model)来寻找最优解,这是一种专用量子计算机,在处理最优化问题上有独特优势。

除了不采用逻辑门,通用量子计算机和量子退火计算机的最大区别是量子比特的连接方式,通用量子计算机追求的是所有量子比特相互连接(如霍尼韦尔的 HO 实现了 6 量子比特的全连接),量子退火机只能实现部分量子比特之间的连接,比如 D-Wave Advantage 拥有 5000 量子比特,但每个比特只与另外 15 个比特相连,这种连接方式称为 Chimera graph。

1998 年,东京工业大学的西森秀稔和门胁正史在论文中首次提出量子退火理论。Farhi 等人在 2001 年也发表了一篇关于量子退火的论文。他们没有使用“量子退火”这个名词,而是将其称为“绝热量子计算”。

目前D-Wave是全球最大的量子退火公司,他们在2011年推出128量子比特的 D-Wave 1,并提出两年量子比特翻倍的目标,已经发布的 Advantage 系统拥有5000个量子比特。相比之下,通用量子计算机目前的量子比特尚不到 100 个。但量子比特不是衡量量子计算机性能的唯一指标,还要考虑到量子比特质量,由于量子退火系统中量子比特只是局部连接,所以与通用量子计算机没有太多可比性。目前,量子退火机只能解决优化问题,但因为优化问题在现实生活中处处可见,因此量子退火计算机的应用也十分广泛。

 

相关主题

普通人能不能体验司南量子操作系统?其实在本源量子云平台就能

精选文章
热门文章