中国量子计算迈入高精度时代:清华团队攻克72比特芯片0.1%误差率难关

【前沿速递】2025年,清华大学交叉信息研究院段路明教授团队在《Nature》主刊发表重磅成果,成功将72超导量子比特芯片的单比特门误差率降至0.097%,双比特门误差率0.12%,刷新国际同行保持的误差率纪录(原纪录为谷歌团队53比特0.2%误差率)。这项突破使我国成为首个实现"50+比特级高精度量子计算"的国家。

技术突破三大创新点

新型量子调控系统
采用自主研发的"超导量子相干保护"技术,通过微波脉冲动态补偿方案,将量子态相干时间延长至503微秒,较传统方案提升8倍。团队特别设计了抗电磁干扰的3D封装结构(如图1),有效抑制环境噪声。

并行校准算法突破
开发出全球首个适用于50+比特的"自适应神经网络校准系统",将72比特的校准时间从传统方法的37小时压缩至2.8小时。该系统能实时监测每个量子比特的相位漂移,精度达0.0001弧度。

误差抑制新范式
创新性提出"量子操作序列优化理论",通过重构量子门操作时序,将串扰误差降低92%。实验显示该方案在20比特模块中已实现容错量子计算阈值(0.6%)以下运行。

2480a59d-ca01-4ac4-800a-447ae873b62b.jpg

产业应用前瞻

金融领域:已与工商银行联合开发量子期权定价算法,在72比特芯片上完成百万次蒙特卡洛模拟仅需3分钟

药物研发:正与恒瑞医药合作构建分子动力学量子模型,预计可缩短新药研发周期40%

天气预报:中国气象局测试显示,72比特系统对台风路径预测的算力相当于太湖之光超算的1700倍

"这标志着量子计算开始从实验室走向工程化应用。"团队负责人段路明教授表示。据悉,该技术已申请46项发明专利,相关成果将应用于我国首台量子计算机原型机"天河量芯"的建造。