中山创客空间微信服务号

中山创客空间服务号
一文读懂:量子计算 转载
2025-03-13 15:16/   AIGCPM/   1079/   0 /   0


先进半导体是传奇的过去,AI是蓬勃的当下,量子计算是不可避免的未来。

量子计算是基于量子力学原理(如叠加态、纠缠态)构建的新型计算方法,其基本单元 量子比特(Qubit)可同时处于0和1的叠加状态。
相比传统计算机的二进制比特,量子计算机在特定问题上可实现指数级算力飞跃,堪称"算力核弹"。

量子计算的定义:

量子计算是基于量子力学原理的一种新型计算方式。它与经典计算方法—传统的比特(bit)的不同在于,量子计算利用量子比特(qubit)来表示和处理信息。量子比特是量子计算中的基本单元,可以同时处于多个状态,而不仅仅是0或1,直到被测量时才确定其值,这种现象被称为“量子叠加”。

量子计算的独特优势来源于量子比特的叠加态和量子纠缠特性。通过量子比特的叠加,量子计算能够在同一时刻并行处理多个计算路径,从而大大加速某些问题的求解过程。而量子纠缠使得不同量子比特之间的状态密切关联,一个量子比特的变化能够瞬时影响到其他量子比特。这些量子效应使得量子计算在解决某些特定问题时,比传统计算方法更具优势。

为理解量子计算,我们可以用一个比喻来形象说明:想象你是一个侦探,手中有一份复杂的案卷,这份案卷可以拆解成多个子案件。

传统方法就像是你一个接一个地解决每个子案件,逐一查找线索。但在量子计算中,问题的解决方式更加‘灵活’和‘并行’。就像是你同时委托多个侦探,每个侦探都能够同时调查多个案件,他们之间紧密协作、共享线索,从而更迅速地找到最终的答案。

在这个比喻中,‘量子叠加’意味着你不再按照固定顺序逐步调查,而是能够在多个方向上同时展开探索;‘量子纠缠’则意味着侦探之间的工作是紧密相连的,一个侦探获得的重要线索会立即影响其他侦探的调查进展,从而提高整体效率。

为什么需要量子计算机?

在探究量子计算机的意义之前,我们不妨先来了解一下传统计算机。传统的计算机,是由无数的晶体管构成。这些晶体管在接收到信号后,会进行“关”和“开”这两个操作,以此来表达0和1,一组0和1,被称为“1比特”,是计算机中的最小单位。有了“比特”,我们就能用二进制来表达所有信息,比如3是“011”,4是“100”,大写字母“A”是这个——“01000010”。

无数这样的晶体管组合在一起,就构成了电路,而大量的电路聚集在一起,就形成了芯片.我们常说的10nm、5nm的芯片,就是指芯片上晶体管的数量,晶体管越多,芯片的运算速度就越快,算力也就越强。


我们为何需要算力呢?因为传统计算机有个根本性的问题——不管晶体管的尺寸有多小,精度有多高,在同一个时刻,一个晶体管只能表达出一个状态。简单来说,当它表达“开”,也就是“1”的时候,它不能表达“关”,也就是“0”。就像一台电灯,它只会出现“点亮”和“熄灭”这两个状态,不会有第三种情况。

受制于这种情况,传统计算机每次计算,都只能得到一个结果,你让它算1+1的时候,它是没法同时算出1+2、1+3的,因此,当面对特别复杂,特别庞大的计算量时,传统计算机只能加快自己的运算速度,或是用多个计算设备同时进行运算。这也就是当今芯片疯狂卷精度的原因,归根结底,是因为传统计算机除了堆砌算力,没有其他的办法。

但如今传统计算机的算力能满足人类的需求了吗?并不能,我们举个最简单的例子,在进行质因式分解时,传统计算机可以轻易的把21分成“3*7”,把81分成“9*9”,可如果你让传统计算机去分解一个300位的大数,它可能需要15万年才能完成工作。而在科学研究中,我们有时需要进行比分解300位大数复杂的运算,这时,传统计算机的算力就显得有些捉襟见肘。解决问题的希望,就落在了量子计算机身上。量子计算机能用自己独特的原理,摆平传统计算机搞不定的“大麻烦”。


传统电能计算机能力非常有限。 随着计算机发展, 高速计算得以实现, 反之, 待以解决的问题也变得越来越复杂、 繁琐。 对于复杂的三维物体或具有量子力学行为的物质, 对于当前仿真计算技术仍有较大挑战。 不可否认, 有时候在计算方面, 计算机仍力有未逮。 近年来备受关注的区块链技术、 机器学习技术, 均致力于减少求解问题所花费的时间未来有望借助量子计算机突破极限



经典计算机的掣肘在哪?

经典计算基于比特和字节, 拥有多重排列模式。 经典计算的基本单位是比特, 它可以处于两种二元状态之一: off或on, 在经典计算中通常被描绘为0或1。 连续的8比特成为1字节, 其可以储存更多数据, 同时根据不同比特状态排列组合, 1字节可拥有256种完整组合, 而这些组合也足以使用ASCII系统对拉丁字母表中的每个字符进行编码。 一种更现代的编码称为“Unicode” , 使用最多四个字节的组, 足以涵盖从表情符号到泰米尔字符和许多

其他基于字符的语言的所有内容, 而其超过 100 万个可用组合中的一小部分而已。

比特解决计算问题的方式可理解为迷宫游戏。 假设比特字节计算方式为一个迷宫, 其目标是使用最短的路径到达迷宫中心。 使用经典计算机, 沿途的每个交叉点都变成与一位相对应的二元决策, 其中1/0位表示在迷宫“转弯处” 的决策。 通过此种方式, 可将每个比特位的组合视为穿过迷宫的一组方向。 但每一次的比特字节组合并非是正确的, 一些路径会重叠,而另一些路径可能会遇到死胡同, 但通过尝试每种组合, 最终可以找到到达中心的最短路径。 然而单字节就拥有256种组合, 为了检查准确性, 经典计算机必须研究每种可能的轮组合, 并且一次只能检查一个组合。

经典计算核心问题在于多项式时间内无法求解

可解问题就是相对于输入参数的数量, 需要计算的次数没有急剧增多的问题。 以“从输入的一组数字中找出最大的数字” 问题为例, 在输入了6个数字的情况下, 程序逐一对比大小后, 大约计算6次可得到解; 在输入了10个数字的情况下, 程序大约需要计算10次; 在输入了100个数字的情况下, 程序大约需要计算100次。 即对于“求最大值” 这类问题, 若输入了N个数字, 程序大约需要计算N次。

由果溯因反向推理问题求解难度较大, 且拥有多种组合, “不可解问题” 出现概率较大。 对于“从输入的一组数字中, 找出乘积最接近40的数字组合” 问题, 常规解法是列出所有输入数字组合, 逐一计算各种组合的乘积, 再从中找出乘积最接近40的组合。 如输入了6个数字, 则有26 = 64种组合; 当输入10个数字时, 需要进行210 = 1024次乘法运算; 当输入20个数字时, 需要进行210 = 1048576次乘法运算; 当输入30个数字时, 需要进行230 = 1073741824次乘法运算, 运算的次数程指数式增加。

经典计算核心问题在于多项式时间内无法求解

当输入的数据个数为N时, 计算次数大约为 (K是整数) 。 即, 随着N的增加, 计算次数呈指数增长(需要指数时间) 。 学界将具有这种可能性的问题称为在多项式时间内无法求解的问题, 也就是经典计算机面临的棘手问题。

当输入参数数量为N时,可解问题的计算次数和无法求解的问题的计算次数

为什么量子计算可以解决上述问题?

量子计算机和经典计算机最大的不同点在于二者使用的最小信息单位不同。 不同于只拥有0/1态的经典比特, 量子计算机使用的最小信息单位是量子比特。 虽然量子比特也可以和经典比特一样使用0和1这两种状态来表示信息, 但除此以外, 量子比特还可以处于0和1的“叠加态” 这一特殊状态

量子比特的状态可假设为球体, 量子0/1叠加态可表征为球面任意一点。量子球体分别以0和1表示上下顶点(南北两极) , 该球体称为布洛赫球, 常用于表示量子比特的状态。 布洛赫球球面上的点表示量子比特的状态。 箭头指向正上方(相当于地球的北极) 时状态为0, 指向正下方(相当于地球的南极) 时状态为1, 指向球面上其他点时状态为0和1的叠加态。

类似于地球经纬度, 布洛赫球面点常以振幅+相位物理量定坐标。 量子比特一经测量, 就会通过概率来决定到底是处于状态0还是状态1。 二者的概率均取决于测量前指向布洛赫球球面上某一点的箭头在贯穿0和1两点的轴上的投影。 箭头的投影越接近0, 出现0的概率就越大; 越接近1, 出现1的概率就越大。 经过测量后, 我们就可以从量子比特中读取非0即1的经典比特信息。 量子比特的状态此时也会变为与测量结果对应的状态0或状态1。


测量量子比特



可逆计算是量子计算

可逆计算是量子计算的一种特殊性质。 可逆计算就是可以逆转的计算, 即可以从输出状态正确推断出输入状态的计算。 经典计算中的NOT门就属于可逆计算, 因为我们可以从输出值正确推断出输入值——若NOT门的输出为0, 则输入必为1;若输出为1, 则输入必为0。 而对于AND门, 若输出为1,可以推断出输入必为11, 但如果输出为0, 那输入就有00、 01或10这3种可能, 因此无法确定输入到底是哪一种。 由于计算不能逆转(无法根据输出计算输入) , 所以AND门不属于可逆计算。 在量子计算中, 所有量子门的输入数和输出数都是相等的, 意味着量子计算是可逆计算。


量子计算与经典计算的区别

量子计算与经典计算有着根本性的区别,主要体现在信息表示、计算方式和处理能力上。尽管它们都可以用于解决复杂的问题,但它们的工作原理和应用范围却大不相同。

数据表示和计算方式

  • 经典计算:经典计算中的最基本数据单位是比特(bit),每个比特只能表示0或1这两种状态。计算通过操作这些比特来进行,计算过程是逐步且串行的,每次只能处理一个明确的状态。
  • 量子计算:量子计算使用量子比特(qubit)。量子比特的独特之处在于它能够处于0和1的叠加态,即在同一时刻可以代表0、1,甚至是它们的某种组合状态。通过量子叠加原理,量子计算能够同时处理多个状态,从而显著提高了计算的并行性和效率。

计算并行性

  • 经典计算:经典计算通常是串行的,每次只能处理一个明确的计算任务,虽然现代技术通过多核处理器和并行计算实现一定程度的并行性,但每个核心独立地执行任务。
  • 量子计算:量子计算因量子叠加特性,能够在一个量子比特上同时处理多个计算路径。量子计算能够通过量子叠加效应,同时处理多个计算状态,从而有效地探索多个计算路径,这使得它在解决某些问题时能够实现指数级的加速,尤其适用于复杂问题的求解。


信息处理和传递

  • 经典计算:经典计算中,比特之间是独立的,信息处理和传递是线性的,通常通过数据总线和中央处理单元(CPU)进行计算调度。
  • 量子计算:量子计算通过量子纠缠现象,使得多个量子比特之间可以处于紧密相关的状态。对一个量子比特的操作会即时影响与之纠缠的其他量子比特,从而实现快速的信息传递和处理。这一特性使量子计算在处理多维度数据和复杂计算问题时,能够比经典计算更高效。

计算精度与容错性

  • 经典计算:经典计算是确定性的,计算结果和过程可以精确预测和控制,适用于绝大多数日常计算任务。
  • 量子计算:量子计算则是基于概率的,量子比特的状态通常是通过概率测量得到的,这意味着量子计算过程需要极其精确的控制。尽管量子计算对环境噪声高度敏感,但通过量子纠错和容错机制,在某些应用中它能够表现出优于经典计算的容错能力。

解决问题的能力与范围

  • 经典计算:经典计算擅长处理常规计算任务,如文本处理、数据分析、图像处理等。随着技术的发展,经典计算能够解决越来越复杂的任务,但仍然受到计算能力和时间的限制,尤其在面对复杂的优化问题和高维度计算时,仍有明显瓶颈。
  • 量子计算:量子计算在一些特定领域具有显著优势,特别是面对经典计算难以应对的问题,如大数分解、量子模拟、优化问题等。量子计算在这些任务上能够提供指数级的加速,突破经典计算的瓶颈。

量子计算的基本原理

量子计算机与传统计算机不同,它不使用晶体管,而是利用微观粒子的“量子态”来存储和处理信息。这些粒子被称为量子比特(Qubit),它们不仅能够表示“0”和“1”,还能表示介于两者之间的任意数值,如“0.5”。

量子计算基于量子比特进行,但其输出结果以经典比特形式表示。量子电路是描述量子门如何控制量子信息并实现量子计算的模型,它定义了量子位状态的传输路径,这些路径并不等同于物理电缆。量子电路的时间轴表示事件的时间顺序,量子门的可逆性赋予了量子电路可逆性。量子计算的特点包括时间顺序性、无回路以及输出比特数目相等特性。

量子计算的实现是一个复杂的过程,涉及量子比特的生成、操控、量子门操作、量子叠加、量子并行计算、量子纠缠和量子测量等基础概念和技术的协同作用。

量子计算的核心是量子比特的生成和操控。量子比特能处于多个状态的叠加,为量子计算提供了强大的并行计算能力,使其能同时处理大量信息。

实现量子计算需要在不同物理平台上生成并操控量子比特,通过量子门进行操作,改变量子比特状态,推动计算进行。量子门实现量子比特间的相互作用,确保计算过程中多路径并行。

量子纠缠是量子计算的核心特性之一,使多个量子比特共享信息并同步计算,提高并行性和效率。量子叠加允许量子计算在多路径上并行,加速特定问题求解。

最终结果依赖量子测量,量子比特在计算中通常处于叠加态,测量导致其塌缩到确定的经典状态,提供经典信息。量子比特对外部干扰敏感,量子纠错通过冗余编码降低错误率,确保量子信息稳定处理。

经典的概率相加不同于量子的概率幅相加

量子计算是如何运作的?

如何获取量子比特?

量子比特实现方式:经典计算机是通过电子电路运转起来的。 使用硅制半导体制成的名为晶体管的小元件发挥了开关的作用, 将其与金属布线组合起来即可实现逻辑门,再将逻辑门集成起来就能制造出经典计算机。 量子计算机的制造过程则要复杂许多, 因为量子计算机既需要量子比特, 又需要执行量子操作。

量子比特所具备的波动性(概率振幅和相位) 。 量子比特的波动性来源于量子力学的性质。 因此, 必须使用量子力学的现象来制备量子比特, 不能通过其他方法对其进行仿造。 退一步说, 即使使用量子力学现象以外的方法仿造出了量子比特, 也无法利用它进行高效的量子计算, 自然也就制造不出真正的量子计算机。

量子比特实现方式:需要利用量子力学的状态(量子态) 来制备量子比特, 并通过控制量子态来实现量子化操作。 量子态非常脆弱, 在控制量子态时要避免使其遭破坏。

以光量子为例,详解量子获取方式

光量子技术获取量子比特可在室温下进行。 该方式有望通过与名为硅光子学(silicon photonics) 的光波导(optical waveguide) 芯片制造技术和光纤等光通信技术相结合来实现量子计算机。 量子力学中, 光既是波又是粒子。 光子本身就是微弱的光, 使用光子的量子计算机既可以在室温下运行,又与光纤通信具有良好的兼容性。

通过压缩光能实现量子比特。 与普通的激光(相干光) 相比, 压缩光能够改变电场的涨落并维持特殊的光子数分布, 可以说是一种使量子性得到增强的光的状态。 压缩光可由入射在特殊晶体上的激光产生。 不同于前面介绍过的线性光学法和使用共振器QED的方法, 利用压缩光可以执行连续变量量子计算。

量子计算的特点

量子计算的颠覆性

并行计算:破解2048位RSA加密,传统超算需10亿年,量子计算机仅需100秒

指数存储:300个量子比特可存储2³⁰⁰个状态(超过宇宙原子总数)

精准模拟:模拟分子结构误差降低1000倍,加速新药研发

优化决策:1秒内求解百万变量组合优化问题(物流调度效率提升90%)


量子计算的基本特性

量子叠加、量子纠缠、量子干涉和量子隧穿是量子计算的四个核心特性,它们为量子计算提供了超越经典计算的巨大优势。量子叠加使得量子比特能够处于多个状态的叠加中,在量子计算过程中,这些状态可以并行探索,为计算提供了比经典计算更强的并行性,量子纠缠使得量子比特之间可以快速传递信息,而量子干涉则帮助筛选出正确的解。量子隧穿效应使得量子计算能够跳过不必要的计算步骤,显著加速求解过程。




量子叠加(Superposition):量子叠加是量子计算的核心特性之一。与传统计算中的比特(bit)只能表示0或1不同,量子比特(qubit)可以同时表示0和1的状态,直到被测量时才确定其值。可以将其想象为量子比特在“叠加”状态下,仿佛同时处于多个可能的状态。通过这种叠加,量子计算可以在同一时刻并行处理多个计算路径,从而加速问题的求解。




量子纠缠(Entanglement):量子纠缠是量子力学中的一种现象,指的是两个或多个量子比特之间建立了一种特殊的联系,使得它们的状态密切相关。即使这些量子比特相距很远,当一个量子比特的状态发生变化时,另一个量子比特也会瞬间发生相应的变化。这种特性为量子计算提供了强大的协作能力,可以在多个量子比特之间高效共享信息。




量子干涉(Interference):量子干涉是量子比特的波动性和相位差所产生的效应。在量子计算中,干涉用于增强正确答案的概率,同时减少错误答案的可能性。可以想象,量子比特的不同状态就像水波的波峰和波谷,通过调整这些波的相位,可以让某些状态的概率增大,而让其他状态的概率减小。通过这种干涉效应,量子计算能够高效地筛选出最优解,从而加速复杂问题的求解。




量子隧穿(Quantum Tunneling):量子隧穿是量子力学中的一种现象,指的是粒子能够穿越经典物理中认为无法跨越的能量障碍。在量子计算中,量子比特能够利用隧穿效应越过这些能量壁垒,尤其在优化和搜索问题中表现突出。这使得量子计算能够跳过传统计算中不必要的计算步骤,直接找到更高效的解决方案。




量子计算机的三大核心技术:

1. 量子比特实现方案

超导电路(IBM/谷歌):芯片在-273℃下运行,单比特成本超百万美元

离子阱(霍尼韦尔):用电磁场悬浮原子,保真度99.99%但体积庞大

光量子(中国科大):光子穿行光纤实现计算,适合远距离量子通信

2. 纠错机制

表面代码纠错:1个逻辑量子比特需1000+物理比特冗余

拓扑量子计算(微软):利用马约拉纳费米子天然抗干扰

3. 量子算法突破

Shor算法:威胁现有加密体系,2048位RSA密码可被秒破

Grover算法:数据库搜索效率提升√N倍(百万数据仅需千次查询)


量子计算的主要实现方式



量子计算的实现是一个综合性的过程,涉及多种物理原理和技术框架。当前,量子计算仍处于早期发展阶段,各大科研机构和科技公司正在探索不同的量子计算实现方式。主要实现方式包括:


超导量子计算超导量子比特(qubit)利用超导材料的特殊性质,通过微波脉冲控制量子态。超导量子计算目前是最具前景的量子计算实现方式之一。其优势在于物理平台稳定性较高,操作速度快,且可以在相对较小的体积内集成多个量子比特。然而,超导量子计算也面临量子比特退相干时间较短的挑战,这意味着量子比特在操作过程中容易受到外部环境的干扰,从而影响计算精度和稳定性。


离子阱量子计算离子阱量子计算利用电磁场约束带电离子,通过激光控制离子的量子态。离子阱量子计算具有极高的精度和稳定性,且在量子比特的操作上表现出色。其挑战在于规模扩展性较差,随着量子比特数目的增加,系统的复杂度和所需的精密控制也大幅上升。


光量子计算光量子计算利用光子作为量子比特,通过光的干涉和纠缠效应进行计算。光量子计算在抗干扰能力方面具有天然优势,尤其是在长距离的量子通信和量子网络中。光量子计算的挑战在于如何实现高效的光子源和光子之间的相互作用,以进行复杂的量子计算操作。


拓扑量子计算:拓扑量子计算通过利用拓扑态的量子比特来实现计算,这些量子比特具有高度的稳定性和容错能力。拓扑态的量子比特不依赖于局部扰动,而是依赖于全局性质,因此能够有效抵抗外部环境的噪声和误差,从而增强量子计算的容错性。拓扑量子计算的潜力在于它为量子纠错提供了重要的理论支持,尤其是在实现大规模量子计算时,能够提供比传统方法更高的稳定性和准确性。

量子竞赛的三大技术路线之争:

超导派(IBM/谷歌):商业化领先但需极端低温环境

离子阱派(霍尼韦尔/IonQ):高精度但难以大规模扩展

光量子派(中国/加拿大Xanadu):易集成但纠错难度大

暗黑科技:拓扑量子计算若突破,或将终结现有技术路线

量子计算硬件架构演进:

“量子霸权”是量子计算机发展阶段的一个重要标志。说起“量子霸权”,谈到量子计算机,就要先说说“量子”。


所谓量子,是构成物质的各种物理量的最基本单元,不可分割。人们所熟知的分子、原子、电子、光子等微观粒子,都是量子的一种表现形态。


早在20世纪50年代到70年代间,物理学家们就通过量子力学研究电子和光子的性质以及在材料中的运动规律,陆续发明了半导体晶体管、激光器、集成电路、磁盘、光纤等技术。以此为基础,20世纪80年代以来陆续诞生了个人电脑、手机、互联网等伟大发明,实现了第三次科技革命(又称为信息革命),将人类文明彻底带入了信息时代。


传统计算机的诞生,给人类带来了更多的发展机会。然而,有些任务太复杂,运算时间简直太长,可能研究者都垂暮甚至死去了,一个研究却还没算出来,人类显然需要一种全新的高性能计算技术,应该怎么办?


上世纪80年代,诺贝尔奖获得者理查德·菲利普·费曼(Richard Phillips Feynman)等人有了一个构想,基于两个奇特的量子特性——量子叠加和量子纠缠——构建“量子计算”。

第一代量子计算机(2011-2016年):这个阶段的量子计算机拥有5到10个量子比特,仅能够展示一些基础的量子算法。

第二代量子计算机(2017-2022年):量子比特数量提升至50到100个,谷歌在此期间宣称实现了“量子优越性”。

第三代量子计算机(2023年及以后):量子比特数量进一步增加至1000个以上,IBM推出了具有433个量子比特的Osprey芯片。

在量子计算机的工程化过程中,面临的主要挑战是如何维持量子相干态,这需要将量子计算机与所有的电磁和热振动干扰完全隔离,而这样的设备重量可能高达3吨。

量子计算的四大应用场景:


量子计算在多个领域展现出巨大的应用潜力,涵盖药物研发、金融优化、气候建模、人工智能等方面。量子计算凭借其并行处理能力、优化能力和超强的计算速度,能够解决传统计算机难以应对的复杂问题。以下是一些典型应用场景:



药物研发与材料设计:量子计算能够模拟分子和原子之间的复杂交互,这为药物设计和分子模拟提供了前所未有的加速。目前,多个科研机构和公司已经在进行基于量子计算的药物分子模拟研究,探索更快速、更精准的药物研发路径。



金融优化与风险管理:金融行业需要应对大量变量和不确定性因素,经典计算方法难以实现实时的复杂优化。量子计算能够有效处理这些复杂数据,通过更高效的优化算法实现投资组合管理、风险评估、资产定价等,提供更优的金融决策方案。摩根大通、花旗银行等金融机构正积极探索量子计算在金融优化中的应用。


气候建模与环境科学:量子计算能够处理大规模的气候数据,帮助科学家预测气候变化,进而制定更为有效的环保政策。通过模拟复杂的气候系统,量子计算为气候研究提供了全新的视角和方法。




人工智能与量子机器学习:量子计算能够处理大规模的高维数据集,对于深度学习和强化学习中的数据处理和特征提取具有天然优势。量子机器学习在图像识别、自然语言处理和生物信息学等领域有望实现更高效的算法和更高的精度。量子计算可以优化神经网络的训练过程,提高人工智能的表现,为无人驾驶、医疗诊断等前沿应用带来全新可能。




供应链与物流优化:量子计算可以通过优化运输路线和库存管理,提升供应链的效率和资源利用率。对于全球化的供应链和多节点物流网络,量子计算能快速找到最优路径、最小化运输成本,改善物流效率。亚马逊、沃尔玛等公司都在探索量子计算的供应链优化方案,以满足现代物流的高效率需求。




密码学与信息安全:量子计算在破解传统加密方法上具有巨大潜力,如大数分解算法可以有效破解现有的RSA加密体系,因此量子计算对信息安全构成挑战。同时,量子计算也推动了量子加密技术的发展,使得通信更加安全。这种“双刃剑”效应让信息安全行业正在积极研发抗量子攻击的加密技术,以保障未来的信息安全。



量子计算的技术挑战

尽管量子计算被认为具有突破性潜力,但要实现其广泛应用仍面临着多个技术挑战。以下是当前量子计算发展过程中遇到的一些主要障碍:

量子比特的退相干和噪声问题

量子比特对外界环境极其敏感,容易受到噪声、温度波动、电磁干扰等因素的影响,导致其状态发生变化,甚至完全丧失量子特性,这一现象称为“退相干”。退相干时间过短是量子计算面临的主要难题之一,尤其在超导量子计算和离子阱量子计算中,量子比特的退相干时间往往只有几微秒到几毫秒,远远无法进行复杂的计算。为了延长量子比特的“生命”并减少噪声的干扰,研究人员正致力于开发更强大的量子纠错技术。

量子比特的规模化和可扩展性问题

目前的量子计算机通常只有少量的量子比特,这限制了其计算能力的提升。随着量子比特数目的增加,系统的复杂性和所需的精密控制也显著提高。量子比特之间的纠缠和操作需要极高的精度,且不同技术平台(如超导量子计算、离子阱量子计算等)在扩展性上各有挑战。例如,超导量子计算系统需要巨大的冷却设备来保持低温,而离子阱系统则面临空间和激光精度的限制。因此,如何实现量子计算的规模化仍是一个亟待解决的问题。

量子纠错与容错计算

由于量子比特的状态极其微妙且对环境高度敏感,量子计算过程中的任何小干扰都可能导致计算结果出错。因此,量子误差成为量子计算面临的主要挑战之一,这些误差直接影响计算结果的准确性。即使是微小的噪声,也可能导致错误,因此量子纠错技术成为了研究的重点。尽管现有的量子纠错算法在理论上有效,但它们需要大量的量子比特资源,并且增加了系统的复杂性。目前的技术尚未能够有效应对大规模量子计算中的误差,如何在不牺牲计算能力的情况下提高系统的容错性,仍是一个关键课题。

量子计算与经典计算的融合问题

量子计算与经典计算的融合,实际上是量子计算未来应用的一个重要方向。虽然量子计算在某些特定任务上具有明显的优势,如大数分解、量子模拟和优化问题,但在许多常规任务上,经典计算仍然是首选。因此,未来的计算系统将可能是“混合计算模型”,即量子计算和经典计算协同工作,发挥各自的优势。

混合计算模型:在这种模型下,经典计算机和量子计算机将紧密协作,经典计算机处理常规任务,量子计算机则专注于解决那些经典计算难以处理的问题。比如,在优化问题中,经典计算机可以负责全局的搜索和策略优化,而量子计算机则可以利用量子算法进行特定的局部搜索,极大地加速结果的推导。

量子加速的经典算法:量子计算能够为经典计算提供加速的可能性,特别是在处理大量数据时,通过量子算法,如量子傅里叶变换和量子搜索算法(如Grover算法),可以在一些经典算法中加入量子计算元素,从而提升效率。这一方向的研究正在稳步推进,预计将催生新型的混合算法,既能保留经典计算的稳定性,又能利用量子计算的加速效应。

技术平台的多样性与统一性问题

当前,量子计算的研究主要集中在几种不同的技术平台上,如超导量子计算、离子阱量子计算、光量子计算等。每种技术平台都有其优势和挑战,没有一种技术能够适用于所有问题。因此,如何实现不同技术平台之间的兼容性或集成,成为量子计算商业化应用的重要课题。研究者们正试图通过跨学科的合作和技术突破,探索统一的平台和更通用的技术方案。

量子编程和算法开发

量子计算的应用潜力依赖于量子算法的创新与发展。与经典计算机程序不同,量子计算需要设计全新的算法,且这些算法需要充分利用量子叠加、量子纠缠等特性。

当前,量子计算的编程语言还处于探索阶段,几个较为成熟的量子编程框架已经得到业界和学术界的广泛关注。其中,Qiskit(由IBM开发)和Cirq(由Google开发)是最具代表性的两个量子编程平台。Qiskit和Cirq都是基于Python语言开发的,旨在为开发者提供对量子硬件的操作能力,同时也提供量子算法的库支持。然而,由于量子计算的特殊性质,传统的编程模型并不能直接适用,开发者需要掌握量子叠加、量子纠缠等概念,进行程序设计。

量子编程面临的最大挑战之一是如何充分利用量子叠加、量子纠缠等特性来设计高效的算法。由于量子比特的状态是概率性的,量子程序在执行时不一定能直接得到确定的结果,这就要求开发者具备一定的数学和物理基础来设计适应量子特性的算法。此外,量子程序的调试和优化也是一项挑战,尤其是在量子计算机硬件仍然处于发展阶段时,算法的性能受硬件误差的影响较大。

随着量子硬件和量子算法的发展,量子编程语言也在不断进步。一些新兴的量子编程语言,如Q#(由微软开发)和Forest(由Rigetti开发),尝试通过更接近传统编程的方式简化量子算法的开发和实现。这些新语言和平台正在努力通过提供高级编程接口、优化量子程序的执行效率,以及改善错误容忍性来推动量子编程的普及。

总体而言,随着量子计算技术的进步,量子编程的难度将逐渐降低,同时新的编程工具和算法的出现,将为开发者提供更多的选择和灵活性。


量子计算的发展现状与相关产业

那现实中的量子计算机发展情况如何呢?

先来说决定量子计算机成败的两个指标:一个是量子退相干时间,另一个是可扩展性。


“退相干”指的是量子相干态(指量子力学中量子谐振子能够达到的一种特殊的量子状态)与环境作用演化到经典状态的时间。量子计算必需在量子叠加态上进行,因此量子计算机的退相干时间越长越好。


“可扩展性”指的是系统上可以增加更多的量子比特,从而才能走向实用化量子计算机。和经典计算机的简单增加比特不同,量子计算机需要把量子比特都纠缠起来,因此难度是指数的,每增加一个比特难度都要翻番。




不同物理系统做量子计算参数比较


从这两个指标出发,世界各地相关领域的科学家从不同的方向朝着同一目标努力,探索着各自的“量子世界”。将来哪条路线能实现通用量子计算机,鹿死谁手还未可知。


*离子阱方案


这是量子计算机提出最早的方案,技术上较为成熟,但可扩展性有限,限制了它向实用化量子计算机的发展。


这个方向上奥地利因斯布鲁克大学和美国科罗拉多大学世界领先。


*光量子方案


利用的是单光子做量子比特,通过复杂光路系统来计算。如果光子不被吸收和散射,它的相干性就一直能保持,因此它的退相干时间可以用现有的光学元件做到很长。它的可扩展性受到光子线宽和集成光路等技术的限制。


在这个方向上中国科学技术大学的潘建伟团队一直世界领先。(“中国量子军团”在这!)




中国科学技术大学的潘建伟团队


*核磁共振方案


它有着出色的退相干时间,但是单个分子的大小完全限制了可扩展性。


在这个方向上探索量子计算机的努力已经基本陷入停滞。


*超导电路方案


这种方案虽然退相干时间短,但是在可扩展性上一枝独秀。


IBM、Google等信息巨头们大力投资这个方向。Google投资了加州大学圣芭芭拉分校(UCSB)的Martinis团队,成立了Google-UCSB联合实验室;


阿里巴巴集团投资了潘建伟院士团队,在中国科学技术大学上海研究院成立了中科院—阿里巴巴量子计算联合实验室,把超导方案作为重心来支持。(“中国量子军团”也在这!)





*金刚石方案


利用金刚石中的色心缺陷做量子比特,在退相干时间和可扩展性上受到了样品本身的限制。


这个方向上中国科学技术大学的杜江峰院士团队世界领先。(“中国量子军团”这也有!)


*超冷原子方案


与离子阱方案比较相似,可扩展性有限,目前更多的是用来做凝聚态系统的量子模拟。


这个领域世界领先的是德国马普学会量子光学所(MPQ),美国JILA实验室,哈佛-麻省理工联合冷原子中心等。


除此之外,还有其它一些物理系统,比如“拓扑量子计算”等。但它们在可扩展性方面无法超导电路相比。因此物理学家和IT巨头们大多都把未来通用量子计算机的期望主要寄托在了超导电路系统上。


显然,对量子计算机的研究是个“道阻且长”的过程,而为了更早地让量子计算机展现出它的优势,物理学家们想到了针对一些特殊的问题,可以用专用型量子计算机来解决。这些专用型量子计算机可以不需要逻辑门(操作一个小数量量子位元的量子线路 ),只靠自身系统的特点来通过模拟的方式来针对性地解决问题。


专用型量子计算机在解决一些问题上已经凸显了优势,比如加拿大的D-Wave公司研制的就是用绝热量子算法的来寻找基态(极小值)的专用型量子计算机;中国科学技术大学(中科院-阿里巴巴实验室)的光量子计算机用5个光量子模拟了玻色子采样问题,在这个问题上的它的计算速度已经超越了早期的经典计算机(比历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)。



全球量子霸权争夺战:

美国:IBM发布"量子路线图",2033年建成10万量子比特计算机

中国:九章光量子计算机求解高斯玻色取样,比超算快亿亿倍

欧盟:投入10亿欧元启动量子旗舰计划,主攻量子传感网络

企业军团:

谷歌Sycamore(53量子比特实现量子优越性)

华为昆仑量子计算模拟器,支持全振幅振幅仿真

阿里达摩院建成实验室级超导量子芯片生产线


量子计算软硬件体系产业

量子计算产业上游主要包含环境支撑系统、 测控系统、 各类关键设备组件以及元器件等, 是研制量子计算原型机的必要保障, 目前由于技术路线未收敛、 硬件研制个性化需求多等原因, 上游供应链存在碎片化问题, 逐一突破攻关存在难度, 一定程度上限制了上游企业的发展。

量子计算产业生态中游主要涉及量子计算原型机和软件, 其中原型机是产业生态的核心部分, 目前超导、 离子阱、 光量子、硅半导体和中性原子等技术路线发展较快, 其中超导路线备受青睐, 离子阱、 光量子和中性原子路线获得较多初创企业关注, 美国原型机研制与软件研发占据一定优势。

量子计算产业下游主要涵盖量子计算云平台以及行业应用, 处在早期发展阶段, 近年来全球已有数十家公司和研究机构推出了不同类型的量子计算云平台积极争夺产业生态地位,目前量子计算领域应用探索已在金融、 化工、 人工智能、 医药、 汽车、 能源等领域广泛开展, 国外量子计算云平台的优势体现在后端硬件性能、 软硬件协同程度、 商业服务模式等方面。

量子计算产业链

全球量子计算市场规模预计2035年有望超过8000亿美元


量子计算技术的前沿进展


随着量子计算技术的发展,一些关键技术正在推动量子计算从实验室走向实际应用。这些进展主要集中在量子芯片技术和新型量子比特材料的探索上:


量子芯片技术的改进

量子芯片技术的进展体现在提高量子比特的数量、质量和控制精度上。特别是在超导量子计算平台中,超导量子比特的退相干时间已经得到了显著提升,并且在量子比特的互联性和大规模集成方面取得了重要进展。这些改进使得量子计算机的可扩展性得到了改善,推动量子计算向大规模系统化发展。此外,量子芯片尺寸的缩小也有助于实现更高效的量子计算。

新型量子比特材料的探索

传统的超导量子比特和离子阱量子比特面临着物理环境的制约,因此,研究者们正在探索新型量子比特材料和架构。例如,拓扑量子比特具有较强的抗干扰能力,能够有效解决传统量子比特容易受到噪声干扰的问题。目前,马约拉纳费米子等拓扑物质被认为具有在量子比特中实现稳定计算的潜力。尽管这一技术仍处于早期探索阶段,但它为量子计算的容错性提供了新的可能性,并可能在未来成为量子计算的重要组成部分。

随着技术的不断进步,量子计算有望解决更多复杂的实际问题。尤其是在量子计算的硬件和算法不断突破的背景下,未来的量子计算将可能广泛应用于金融、药物研发、人工智能等多个领域,为我们的日常生活带来深远影响。

量子计算与AI

自90年代初,量子物理学与人工智能(AI)的结合并不被看好,但如今,神经网络等AI技术已成为21世纪最具影响力的技术之一。这些技术不仅在围棋和数据挖掘等任务上超越了人类,还在面部识别和语言翻译等大脑的本职工作上胜过人类。这些系统的实现依赖于庞大的计算能力,科技公司因此寻找的计算机不仅要更大,还要更先进。

量子计算机经过数十年的发展,其计算能力已超越所有传统计算机。量子计算机的一个杀手级应用是对大数进行因数分解,这对现代加密技术至关重要。但实现这一点至少还需十年。不过,当前的基本量子处理器已能满足机器学习的计算需求。量子计算机能在一个步骤内处理大量数据,找出传统计算机无法识别的微妙模式,即使在遇到不完整或不确定数据时也不会卡住。

量子计算和机器学习固有的统计学性质之间存在天然的结合。量子处理器在一个步骤内可以处理大量数据,找出传统计算机无法识别的微妙模式。量子计算机的信息存储能力并不能加快其运算速度,如何使用qubit才是关键。2008年,科学家们展示了如何用量子计算机完成矩阵求逆的关键代数运算,他们的算法适用于许多机器学习算法,而且需要完成的运算步骤少于因数分解一个大数所要完成的步骤。量子计算机可以在受到噪声影响前迅速完成分类任务。

然而,量子机器学习系统处理的是量子态,而非人类可以理解的数据,量子态和数据的相互转换会使系统原有的优势消失。在一些特殊情况下,物理学家可以克服输入输出障碍,但这些情况是否存在于现实机器学习任务中?答案仍然是未知的。

量子神经元的主要任务是识别模式。受人类大脑启发,神经网络由基本的计算单元(即“神经元”)构成。每个神经元都可以看作是一个开关设备。一个神经元可以监测多个其他神经元的输出,如果足够多的神经元处于激活状态,这个神经元就会被激活。通常,神经元的排列呈层状。初始层(initial layer)导入输入(例如图像像素),中间层生成不同组合形式的输入(代表边、几何形状等结构),最后一层生成输出(对图像内容的高级描述)。

需要注意的是,神经元之间的连接需要经过反复试验进行调整,不是预先确定的。例如,给神经网络输入带有“小猫”或“小狗”标签的图像。网络会给每一张图像分配一个标签,检查是否匹配正确,如果不正确就调整神经元连接。刚开始时网络的预测是随机生成的,但是其准确度会越来越高;在经过1000个实例的训练之后,网络将能识别图像中的宠物。正规的神经网络可能拥有10亿个神经元连接,所有连接都需要进行调整。


传统计算机计算单元的所有连接都用庞大的数字矩阵表示,运行神经网络就是在计算矩阵代数。传统的方法是,用一个专门的芯片(例如:图像处理器)来完成这些矩阵运算。而在完成矩阵运算上,量子计算机是不可匹敌的。


在进行运算时,量子计算机可以利用量子系统的指数属性。量子系统的大部分信息储存能力并不是靠单个数据单元——qubit(对应于传统计算机中的bit)实现的,而是靠这些bit的共同属性实现的。两个qubit带有四个连接状态:开/开、关/关、开/关、关/开。每个连接状态都分配有一个特定的权重或“幅值”,代表一个神经元。三个qubit可以代表八个神经元。四个qubit可以代表16个神经元。机器的运算能力呈指数增长。实际上,整个系统处处都分布有神经元。当处理4个qubit的状态时,计算机一步可以处理16个数字,而传统的计算机只能一步处理一个。

Lloyd估计,60个qubit的计算机可以编码的数据量相当于人类一年生成的所有数据,300个qubit的计算机可以编码可观测宇宙中的传统信息内容(IBM、英特尔和谷歌共同研发的量子计算机是当前最大的量子计算机,大约有50个qubit)。不过前提是假设每个幅值(amplitude)对应于一个传统的bit。Aaronson表示:事实上,幅值是连续的数值(复杂的数字)。为获得可信的试验准确度,可以储存15 bit的信息。


但是量子计算机的信息储存能力并不能加快它的运算速度。如何能够使用qubit才是关键。2008年,Lloyd、MIT物理学家Aram Harrow和以色列巴伊兰大学计算机科学家Avinatan Hassidim展示了如何用量子计算机完成矩阵求逆的关键代数运算。他们将整个运算分解为一系列可以在量子计算机上执行的逻辑运算。他们的算法适用于很多种机器学习算法。而且,需要完成的运算步骤少于因数分解一个大数所要完成的步骤。量子计算机可以在受到噪声影响前,迅速完成分类任务。“在完全通用且容错的量子计算机到来之前,量子计算可以提供量子优势。” IBM的 Thomas J. Watson 研究中心的Kristan Temme表示。


量子机器学习在实验上取得的大部分成功都采用了一种不同的方法:量子系统不只是模仿网络,它本身就是网络。每个qubit代表一个神经元。虽然这种方法无法让计算机利用指数属性所带来的优势,但是它可以让计算机利用量子物理学的其他特性。


量子处理器,和大多数人观念中的计算机不同:它的主要任务是寻找数据的内部一致性,而不是对输入数据执行一系列的运算,得出输出。每个qubit都是一个超导电回路,其作用相当于一个向上、向下或向上与向下(叠加)的小电磁体。让qubit通过磁力相互作用,这样就可以将它们“连”在一起。

在运行系统时,必须先施加一个水平的磁场,这个磁场可以将qubit预置为向上和向下的均等叠加——等同于空白状态。输入数据的方法有好几种。在某些情况中,你可以将某一层qubit固定在预期的输入值;不过多数情况下,应将输入导入到qubit的相互作用的范围内。然后让qubit相互作用。某些qubit朝同一方向排列,某些qubit朝相反方向排列,在水平磁场的作用下,它们会翻转到它们选择的方向。通过这样做,这些qubit可以触发其他qubit进行翻转。由于很多qubit都没对准方向,刚开始时会发生很多翻转。等到翻转停止后,你可以关闭水平磁场,将qubit锁定在固定位置。此时,qubit处于朝上和朝下的叠加状态,这种状态可以确保输出与输入相对应。


关键在于,Qubit最终的排列方式很难预测出来。通过完成自然出现的任务,系统可以解决普通计算机难以解决的问题。“我们不需要使用算法。这种系统与常规的编程完全不同。系统本身可以解决问题。”


qubit的翻转是由量子隧穿效应(quantum tunneling)驱动的。这种效应是一种自然趋势,量子系统必须要选出最佳配置,不能退而求其次。你可以构建一个工作原理相似的传统网络,采用随机晃动,而不是通过隧穿效应来让bit翻转。在某些任务中,这样的网络表现更好。但是有趣的是,在处理机器学习中出现的问题时,量子网络实现最佳结果的速度似乎更快。

改写人类认知边界的应用蓝图


量子计算的核心价值,在于其指数级增长的算力将重塑人类对复杂系统的理解。


微软已描绘出一幅激动人心的图景:通过量子模拟,科学家可揭示材料腐蚀、断裂的微观机制,开发出能够自愈的桥梁钢材或手机屏幕材料,甚至设计出室温超导体。在医学领域,量子算力可加速分子动力学模拟,将抗癌药物研发周期从十年缩短至数月,让 “AI + 量子” 的组合直接生成分子结构,终结传统试错法的低效。


谷歌则聚焦于更迫切的现实挑战。其量子算法在金融风险预测、物流网络优化等领域展现出颠覆性优势。例如,全球供应链的实时动态优化、气候变化模型的精准推演,这些曾受限于经典计算机算力的问题,如今可通过量子并行计算快速求解。更深远的是,量子计算与人工智能的融合正催生 “量子智能” 时代 —— 微软的生成式 AI 工具 Muse 已开始结合量子芯片,实现影视内容的实时渲染与交互式创作。

科技巨头的竞合与人类共同愿景


在这场技术革命中,微软与谷歌的竞争本质是对 “量子未来” 定义权的争夺。


微软以 “2030 年前实现百万量子比特” 为目标,将 Azure 量子云服务打造为开发者生态的核心,未来计划通过云平台开放其拓扑量子芯片。谷歌则强调短期实用性,其量子计算服务已接入全球科研机构,用于解决材料科学、密码学等领域的 “卡脖子” 难题。


值得关注的是,这场竞赛并非零和博弈。英伟达推出的 “量子日” 活动,正推动 GPU 与量子芯片的异构计算架构发展;中国科大的 “祖冲之三号” 与 “九章” 系列,则在光量子与超导体系双赛道实现突破。这种全球协作的态势,让量子计算超越了企业竞争的范畴,成为人类探索未知的集体行动。

量子文明:超越计算的文明跃迁


量子计算的终极意义,或许远超技术本身。当算力不再受限于摩尔定律的桎梏,人类将首次拥有解析宇宙基本规律的工具:从暗物质探测到量子引力模型验证,从可控核聚变到跨星系通信,这些曾被视为科幻的命题将步入科学研究的核心领域。微软研究员 Krysta Svore 的愿景 ——“用简单语言描述需求,量子计算机即刻生成答案”—— 正在重新定义科学与技术的边界。


更深远的是,量子技术或将重塑人类社会的伦理框架。量子加密通信使 “绝对安全” 成为可能,但量子算力对传统密码体系的威胁也迫使全球重建信任机制。正如潘建伟院士所言:“百万量子比特的操控不再是科幻,而是可预见的技术里程碑。” 在这场变革中,科技巨头不仅是技术提供者,更需成为伦理共识的推动者。

量子计算的未来

IT产业巨头的未来都由量子计算机决定



速度决定了高度,量子计算机也有望在人类社会的大规模计算难题上大展拳脚:


一是在公共安全领域,量子计算可以瞬间处理监控数据库中60亿人次的脸部图片,并实时辨别出一个人的身份。


二是在公共交通领域,量子计算能够迅速对复杂的交通状况进行分析预判,从而调度综合交通系统,最大限度避免道路拥堵。


三是在人工智能领域,近几年量子计算机在人工智能方面的应用受到越来越多的关注,经典机器学习的算法受制于数据量和空间维度所决定的多项式时间,而量子计算机则能够更快地操控高维向量进行大数据分类,较经典计算机在机器学习速度上有显著的优势。





如今,汽车自动驾驶、自然语言处理、搜索引擎、线上广告、推荐系统等都是机器学习的热门领域,因此量子计算机决定了包括特斯拉、Google、微软、Amazon、Facebook、腾讯、阿里巴巴、百度等IT产业巨头公司在未来的发展方向和趋势。


四是在量子化学计算领域,量子计算机也有独特的优势。分子的模拟涉及求解数目众多的电子和原子的量子行为,在经典计算机上对其进行模拟非常困难,量子计算机可以大大加速模拟过程。


由此D-wave公司的CTO乔迪·洛斯(Geordie Rose)认为:“量子计算机最具颠覆性和吸引力的就是在分子维度上模拟自然,它在制药、化工还有生物科技等领域都有着广阔的应用,因此,量子计算可以撬动涵盖上述3个总价值3.1万亿美元的市场”。


在生物制药方面,一款可上市产品必然会经历一个漫长的实验各种分子结合过程,而这些实验绝大多数又以失败告终。通过量子计算机来节省大量的时间和成本,不仅有利于这些公司的商业产出,反过来也能极大地降低抗癌药等高价药的成本,最终帮助到普通病患。





这些都还只是量子计算机应用的冰山一角。不过,这些目前都还只是科学家的“理想”前景,现实中的量子计算机还远没有达到这个应用水平。

量子计算发展历史


标签: 量子计算  AI
推荐文章