量子计算面临核心瓶颈:算力提升依赖内存,而非单纯处理器速度

2026年1月22日
news

(图片来自网络)




量子计算瓶颈解析


【文/观察者网专栏作者 徐令予】 关于量子计算的争论,大多在量子比特的数字游戏与工程实现的泥潭中打转。公众往往默认“处理器越快算力越大”,但这一命题早已被计算技术发展史证伪。现代计算的战场,不在于运算本身,而在于数据的“搬运”与“等待”。


过去数十年取得的算力红利,其实主要来自数据调度与存储架构的持续演进。英伟达在CES展会上强调:当前AI算力的瓶颈已从算术计算单元扩展到内存带宽、数据移动效率及系统级延迟,源于AI模型规模增长和物理AI对实时性的要求。本文并非否定量子计算的研究价值,而是希望从计算体系结构与算力本体的角度,重新审视量子计算的技术承诺。



一、算力不只是处理器速度,内存才是决定因素


在计算能力讨论中,存在误区:认为算力等同于中央处理器(CPU)速度。这种理解符合朴素想象,却不符合现代计算机系统真实状况。当代计算性能瓶颈往往来自数据的存储、调度与访问,而非CPU本身。


经典的冯·诺依曼计算机结构,将系统划分为处理单元、存储单元与数据通道。程序和数据统一存储于内存,处理器需通过有限带宽与内存交换信息。这决定了一个基本结论:处理器再快,也必须等待数据——这就是“内存瓶颈”(Memory Wall)。


现代计算对算力的需求,源于数据规模持续增长。问题核心是规模参数增大时,处理运算、存储、访问的总负担。无论是数值计算、人工智能,难点往往不在“算得快”,而在“处理大量数据”。大语言模型等人工智能系统,参数规模数百亿至上千亿,挑战在于数据能否被有效存放、调动并高效访问,内存容量与速度因此成为算力天花板。


当代计算机体系结构核心进展,体现在缓存、内存带宽、数据局部性设计、分布式存储等“存储—计算协同”工程创新,而非单纯提升CPU速度。例如,在大规模模型训练中,超一半时间与能耗消耗在数据读写、搬运等与存储相关的环节。


由此可见,算力是系统能力,取决于数据存储、调度,“脱离存储谈算力是空想”。理解内存核心地位,是重新评估包括量子计算在内所有算力承诺的必要前提。



二、量子计算仍然离不开经典内存,问题更严苛、更复杂


量子处理器门操作速度提升,不能自动转化为可持续算力增长,算力释放最终仍取决于数据保存、调度与访问。量子计算不仅无法摆脱对经典内存依赖,反而在数据存储与调度层面遭遇更严苛结构性约束。


量子比特不适用扩展存储:量子态易挥发,相干性衰减,误差积累,无法长期稳定保存;工程上量子存储资源开销大,成百上千物理量子比特编码一个逻辑量子比特,难以扩展为大型存储空间。


量子不可克隆性与经典存储差异:量子不可克隆意味着无法简单复制存储,经典内存的读写、备份无法直接在量子态实现;工程上量子纠错资源密集,无法构建大规模量子存储。


量子—经典边界限制:量子计算输入输出仍是经典数据,依赖经典系统组织流程,处理器与内存间数据交换在速度、带宽、接口层面受限。


以上因素决定量子计算依赖经典内存,内存成为瓶颈;且量子—经典边界可能成为新瓶颈。极端情形下,量子算力增长有限,无法超越经典算力一半以下。因此量子计算挑战,不仅是规模或工程,还在于依赖经典内存且量子比特难以成扩展存储体系。



结论


量子计算核心挑战不仅在于量子比特规模或工程实现,更在于底层体系结构矛盾:算力需通过数据流动与存储兑现,而量子计算缺乏可扩展存储基础。内存容量、带宽与调度能力决定算力上限,量子计算无法摆脱对经典内存依赖,又难以将量子态转化为持久可扩展存储体系,其宏大承诺在可预见技术路径上需审慎看待。原因包括忽视内存瓶颈会让推动者自断生路,且问题会在应用时爆发,内存瓶颈是跨越实验室门槛的先决条件。



本文系观察者网独家稿件,文章内容为作者个人观点,不代表平台观点,未经授权不得转载,否则将追究法律责任。



(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2026-01-22 09
    科技总是有挑战的,量子计算的内存问题也是进步的动力吧。
  • 网友9 2026-01-22 09
    期待未来内存技术进步,能推动量子计算真正发展,这个瓶颈必须突破。
  • 网友8 2026-01-22 09
    很有意思的技术分析,让我对量子计算有了更全面的认识,好文章。
  • 网友7 2026-01-22 09
    这么多年来一直以为量子计算很厉害,原来还有这么多瓶颈,需要重新思考。
  • 网友6 2026-01-22 09
    科技发展要务实,不能光追求速度,得解决基础问题,内存就是基础之一。
  • 网友5 2026-01-22 09
    现在搞量子计算,内存问题确实难,得一步步来,不能太急。
  • 网友4 2026-01-22 09
    作为学生,我觉得这是很有意义的研究,能让我们了解科技发展的现实情况。
  • 网友3 2026-01-22 09
    从专业角度分析很准确,内存瓶颈确实是关键问题,需要多学科合作解决。
  • 网友2 2026-01-22 09
    原来量子计算受内存限制,这让我对它的实际应用有了更现实的认识,不能只看理论。
  • 网友1 2026-01-22 09
    这个新闻揭示了很多之前不知道的量子计算限制,确实内存很重要,得等技术突破才能发展。
查看“量子计算面临核心瓶颈:算力提升依赖内存,而非单纯处理器速度”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙