首页 AI科技文章正文

GPU算力接近极限 量子计算能否接棒?

AI科技 2025年09月25日 06:22 0 admin

AI时代为了拼算力,英伟达把GPU制程卷到了3nm,已接近硅基材料的物理极限,现在又开始通过CoWoS封装技术将多个芯片堆叠达来提升算力,随之而来的高能耗和高成本让企业快负担不起了,靠制程来提高算力的性价比越来越低。

与此同时2025 年OpenAI推出的 GPT-5 在性能上没有达到使用者的预期,现实世界的优质数据已经快被模型使用殆尽,提升性能也遇到了瓶颈,接下来只能“让模型变得更聪明”——加快机器在有限数据基础上学习和训练的推理过程成为破解难题的核心方法。

这种现状让大家不得不关注量子计算的发展进度:

打个比方,量子计算和硅基芯片的计算能力像飞机和马车在比速度。2019年,谷歌53比特“悬铃木”处理器在200秒内完成的计算任务,用当时最快的超级计算机进行模拟需要约一万年。而这种速度来源于量子比特的两大独特性,从原理上重构了计算逻辑:

除了0和1还有“叠加态”:

传统 GPU 最小的计算单元即比特,是一种非 0 即 1的状态,就算有1亿个比特一次也只能处理 0和1特定排列组合的一组数据;

而量子比特可处于 “0 和 1 同时存在” 的叠加态(量子力学中微观粒子独有的状态),就算10个量子比特,就能同时表示 2^10即1024种状态,相当于瞬间启动 1024台经典计算机并行运算。

量子可以纠缠:

多个量子比特形成的 “纠缠态” 能实现超距离联动,一个比特的状态变化会瞬间影响其他比特,无需像 GPU 那样通过数据总线传输信息。如同一组配合默契的足球队员,一个人带球跑,其他人会做出相应配合进攻或防守,不用教练教每个人怎么做,也不用他们互相打电话通知。

这种特性让量子计算能高效处理一些复杂问题,比如生物医药中的蛋白质分子运动模拟,因为这些分子运动相互关联,量子纠缠可同步计算所有原子的相互作用,而 GPU 需逐一计算,效率差距可达万倍。

但是量子计算要真正应用也有很大的难题要解决:

首先是苛刻的硬件环境:量子极不稳定,量子计算要在无磁场和无干扰的环境下才准确有效,所以需要在接近绝对零度的真空环境中运行,对硬件的制造提出了极高要求。但是这点我们并不是做不到,IBM、谷歌、包括我国中科院等都可以制作出满足要求的硬件。

第二点才是真正难题,就是计算的错误率太高:

当前量子比特对环境干扰太过敏感,且状态极易受到破坏,造成计算的错误率远高于传统计算机,所以量子纠错技术是解决这一问题的关键。但现有纠错方案尚未成熟,随着量子比特数量的增多,错误率也越来越高,纠错方案的难度也成倍增加,而要真正实现商业应用,至少要数千个量子比特单元,纠错方案的效率必须大幅提高,且能兼容更大的量子比特数量。

但是去年和今年发生的两个里程碑事件,让量子计算的应用看到了希望。

容错技术实现工程化落地:谷歌 2024 年底推出了 Willow 芯片,将105个量子比特编码成不同大小的网格,将单个量子比特信息编码到多个量子比特纠缠的网络中,通过 “集体监督” 实现错误的识别与修复,类似用多个哨兵组成防御网保护核心目标,单个哨兵失误不影响整体安全。随网格大小(量子比特数量)的增加,错误抑制能力也呈指数级增长,错误率降低。这就让纠错方案有了可行性,解决了量子计算处理复杂问题能力的瓶颈。

量子比特数与精度双突破北京玻色量子科技有限公司在 2025 年 9 月发布了使用 1000个专用量子比特的云服务,单个量子比特可与其余 999 个灵活连接,量子间实现有效信息交互连接达 49.95 万个,使量子计算具备处理大规模优化AI 模型训练的能力。这一突破至关重要 —— 低于 500 比特时,量子算法无法有效适配高复杂度 AI 模型,而千比特规模已可覆盖药物设计、电力调度等核心场景。

以上两企事件让大家看到,量子计算从比特数量到容错率进一步提升和优化的希望,也显示出他在代替GPU在AI大模型训练方面的惊人潜力,此外比特量子计算机功耗仅为同等算力 GPU 集群的千分之一,这也意味着量子计算的应用也将为企业节省大量的能耗成本。

但是量子还有瓶颈制约,未来只能用于特定领域:

量子计算的 “快” 是 “专项快” 而非 “全能快”,未来它会先在金融、医药等场景落地,而非全面替代 GPU :

量子纠错的 “算力损耗”:量子比特极其敏感,环境噪声(温度、电磁干扰等)会导致 “量子态坍缩”,为解决这个问题设计的纠错方案是以大量硬件配置来实现,所以仅在 “运算收益大于纠错成本” 的情况中可行:比如破解 RSA 密码需因式分解大整数,量子算法的高效率远超过纠错成本,但是如果但处理文档编辑、网页浏览等简单任务,纠错成本反而会抵消速度优势。

算法适配的 “场景依赖”:量子计算的速度优势仅针对 “可量子化的问题”。目前已成熟的量子算法集中在三类场景:组合优化(金融风控、电力调度)、量子模拟(药物设计、材料合成)、特定密码破解,而日常办公、视频剪辑等场景缺乏适配的量子算法 —— 就像 GPU 擅长图形渲染却不适合文本处理,量子计算的 特长存在天然偏向。

硬件与生态的 “阶段性限制”:现有量子计算机仍处于 “专用原型机” 阶段:超导路线需超低温环境(接近绝对零度),设备体积堪比 1/4 个足球场,无法像 GPU 那样小型化。更关键的是软件生态滞后:微软、亚马逊的量子云服务虽集成了 1000 多个算法模块,但与传统工业软件的适配率不足 10%,多数行业仍缺乏量子计算的软件生态。这意味着即便量子计算在技术上可行,企业也需重构业务系统才能使用,进一步限制了其应用范围。

不过即便有种种局限性,量子计算同样是对经典计算架构的颠覆,“特定领域限制” 则是技术发展阶段的必然 —— 就像早期 GPU 仅用于图形渲染,随着硬件迭代和软件生态完善才扩展到 AI 训练。

业内预计 ,2028 年前后量子计算机将实现 15000 量子比特规模,届时可覆盖 AI 训练、气候模拟等通用场景;2030 年单比特成本将与高端 GPU 持平,专用场景渗透率有望突破 25%。

目前,国内也有几家产业链的代表性企业也开始涌现,并取得了阶段性成果:

国盾量子:量子科技 “国家队” 核心成员,在超导量子计算的底层硬件研发上具有优势。目前唯一深度参与 “祖冲之三号”量子计算机研制的公司,该超导量子原型机集成 105 个数据比特、182 个耦合比特,处理随机线路采样问题的速度比谷歌最新成果快 6 个数量级,直接巩固我国在超导路线的国际领先地位。

本源量子(上市辅导中):国内量子计算商业化的标杆企业,优势聚焦 “硬件 - 软件 - 场景” 全链条自主可控与规模化商用。研发的第三代超导量子机 “本源悟空” 搭载 198 个量子比特(72 个计算比特 + 126 个耦合器),可同时执行 200 个量子线路任务,速度远超国际同类单机。目前 3 台设备已投入商用,为 145 个国家和地区完成 53 万个量子任务,覆盖金融、生物医药等核心场景,是国内首个实现商业化闭环的量子算力提供商。

晶泰控股:量子计算在垂直场景的深度应用与商业化闭环,构建 “量子模拟 —AI 预测 — 机器人实验” 闭环,从底层重构药物研发逻辑。在辉瑞新冠口服药 Paxlovid 的晶型筛选中,仅用 6 周完成传统方法需 1 年的工作,直接验证量子算力对 GPU 的替代价值。

量子计算可能未来真的不会太遥远。

——END——

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap