比特之家报道:加州理工学院的物理学家近日成功创造了迄今为止规模最大的中性原子量子计算机,在单一阵列中捕获了6,100个铯原子作为量子比特。这一研究成果发表于《自然》杂志,相较于之前仅包含数百个量子比特的阵列,实现了显著的技术跃迁。
研究人员采用“光镊”技术,利用高度聚焦的激光束将单束光分裂成12,000个微型光阱,从而在真空环境中稳定容纳6,100个原子。该方法不仅实现了大规模集成,还保持了系统的高稳定性与高精度。
研究团队表示,该系统实现了约13秒的相干时间,比以往实验长近10倍,同时以99.98%的准确率执行单量子比特操作。这一成果标志着在维持量子态长期稳定性方面取得关键进展。
量子比特是量子计算机中信息的基本单位。与经典比特只能处于0或1状态不同,量子比特可处于叠加态,实现并行计算。然而,其脆弱的量子态极易受噪声、热量或电磁干扰影响,导致退相干。
相干时间越长,量子处理器在出错前可执行的操作就越复杂。加州理工学院研究生Elie Bataille指出:“如果你的操作时间为一微秒,而相干时间为一秒,意味着你可以进行大约一百万次操作。”这为实现复杂算法提供了可能。
研究团队还证明,可在不破坏量子态的前提下移动原子,这一能力为未来实现高效纠错提供了关键支持。中性原子系统的优势在于其物理可重构性——通过移动光阱,原子可在计算过程中重新排列,形成动态连接拓扑,超越传统硬件的刚性结构限制。
此前,多数中性原子阵列仅能容纳数百个量子比特,而此次6,100量子比特的突破,标志着该技术路线迈入新阶段。
在全球范围内,量子计算正进入规模化竞争阶段。IBM计划到2033年推出拥有100,000量子比特的超导量子计算机。IonQ、Quantinuum等公司也在推进离子阱与中性原子技术。总部位于科罗拉多州的ColdQuanta则宣布将于2029年交付一台完全容错的量子计算机。
下一个关键里程碑是演示大规模量子纠错,即从数千个物理量子比特中编码出一个逻辑量子比特。这是实现实用化量子计算的核心前提。
“传统计算机每10到17次运算就会出错一次,”巴塔耶指出,“目前量子计算机的精度远不及这个水平,我们也无法指望仅靠硬件就能达到这一目标。”因此,纠错机制与系统架构协同优化至关重要。
加州理工学院研究小组下一步计划通过纠缠来连接量子比特,这是运行完整量子计算的必要条件。尽管当前系统尚未构成实用量子计算机,但其在规模、精度与相干性上的综合表现,已为中性原子量子计算设定了新的行业基准,并巩固了其作为主流技术路线之一的地位。