首页 景点排名文章正文

狂飙三年,AI芯片踩下刹车!67%增速藏着需求变了,2026年这样走

景点排名 2025年09月27日 09:52 0 aa

当AI芯片市场连续三年以超250%的增速狂飙后,2024-2025年67%的增速回落,像一声清晰的哨声——行业正在从“野蛮生长”转向“理性深耕”。Omdia最新报告显示,2024年GPU和AI加速器出货金额达1230亿美元,2025年将增至2070亿美元,总量仍在扩张,但增速放缓的背后,藏着需求端的理性回归、供给端的产能平衡,以及技术迭代进入深水区的行业新逻辑。2026年AI基础设施支出占数据中心总支出比例将达峰值,之后逐步回落,这不是“见顶”,而是行业从“规模扩张”转向“质量竞争”的开始。

狂飙三年,AI芯片踩下刹车!67%增速藏着需求变了,2026年这样走

一、增速放缓:不是退潮,是潮水转向

要理解AI芯片市场的“增速放缓”,首先需要跳出“数字焦虑”——67%的增速放在任何行业都是高增长,只是相比前三年超250%的“火箭速度”显得“降档”。这种变化的本质,是行业从“爆发期”进入“稳定增长期”的必然。

2022-2024年的超250%增速,有其特殊背景:2022年底ChatGPT引爆大模型革命,全球科技巨头、初创公司掀起“囤芯片”热潮——OpenAI、谷歌、Meta等为训练千亿级模型疯狂采购GPU,中小企业也跟风“囤算力”以防“掉队”。彼时市场需求是“恐慌性扩张”,供给端却受限于台积电先进制程产能,形成“供不应求”的局面,价格与销量双升推动增速狂飙。

但到2024年,市场逻辑变了。一方面,头部大模型企业已完成基础模型训练,进入“迭代优化”阶段——比如GPT-5不再单纯追求参数规模,而是提升推理效率、降低能耗;另一方面,中小企业从“跟风囤芯片”转向“按需租用算力”,公有云厂商(AWS、阿里云等)的AI算力服务成熟,按分钟计费的模式让中小企业无需“重资产”投入。需求从“非理性抢购”转向“理性按需采购”,直接拉平了销量增速。

更关键的是,2024年全球AI芯片产能开始释放。台积电3nm制程产能爬坡完成,NVIDIA H20、AMD MI300等新一代芯片量产,供给端从“产能瓶颈”转向“供需平衡”。当“抢不到货”变成“选择更多”,价格自然回归理性——2024年Q2 GPU均价同比下降12%,虽销量仍在增长,但金额增速因价格因素有所回落。

这不是“退潮”,而是“潮水转向”:行业从“量的扩张”转向“质的提升”,增速放缓恰恰是市场成熟的标志。

二、需求端:从“囤芯片”到“算效竞赛”

增速放缓的核心驱动力,是需求端从“拥有算力”向“用好算力”的转变。过去三年,企业比拼的是“谁有更多GPU”,现在比拼的是“每颗GPU能产生多少价值”——这就是“算效竞赛”的新逻辑。

大模型企业的需求变化最具代表性。2023年Meta曾公开表示,其AI数据中心的GPU利用率不足30%——大量芯片因模型训练间隙、算力调度效率低而闲置。2024年,Meta启动“算力优化计划”,通过自研的AI调度系统,将GPU利用率提升至75%,相当于“用同样的芯片干了2.5倍的活”。这种“向内要效率”的做法正在行业普及:谷歌用TPU v5e替代部分GPU处理推理任务,能效比提升3倍;微软将部分训练任务迁移至Azure云的“共享算力池”,降低闲置成本。

中小企业的需求则更“务实”。一家智能制造企业负责人告诉记者:“2023年我们跟风买了200张GPU,结果发现用于工厂质检的AI模型,用云端的A100实例按小时租用更划算,一年能省40%成本。”这种“轻资产化”趋势下,2024年全球AI算力租赁市场规模同比增长180%,直接分流了部分芯片采购需求。

需求端的分层也在加剧。高端市场(训练级GPU)仍由NVIDIA主导,但中低端市场(推理、边缘计算)出现新玩家:寒武纪思元670、地平线J7等芯片因适配“工业质检、智能驾驶”等场景,2024年出货量同比增长210%。这说明需求不再是“大一统的GPU需求”,而是“场景化的算力需求”,进一步分散了增速集中度。

三、供给端:产能释放与技术深水区的角力

供给端的变化,同样在重塑行业增速逻辑。2022-2023年,行业的主要矛盾是“产能不足”;2024年,矛盾变成“技术迭代进入深水区”——芯片性能提升从“量变”转向“质变”,难度与成本陡增。

制程工艺是典型例子。从7nm到5nm,芯片性能提升50%,成本增加30%;但从3nm到2nm,性能提升仅20%,成本却增加50%。2024年NVIDIA H20采用3nm制程,相比上一代H100性能提升35%,但研发成本超100亿美元,量产良率初期仅60%。这种“边际效益递减”让芯片厂商不敢再盲目追求“制程竞赛”,转而探索“Chiplet(芯粒)”技术——将大芯片拆成小芯片拼接,既降低成本,又提升良率。AMD MI300采用Chiplet设计后,成本降低25%,2024年市场份额提升至18%(2023年仅9%)。

狂飙三年,AI芯片踩下刹车!67%增速藏着需求变了,2026年这样走

供给端的多元化也削弱了“单一依赖”。过去市场是“NVIDIA一家独大”,2024年出现“多强并存”:云厂商自研芯片崛起——AWS Trainium3推理性能比GPU高40%,成本低30%,已用于自身电商推荐系统;谷歌TPU v5e在AI绘画、语音识别场景市占率达25%;甚至传统芯片巨头Intel也通过Xeon Max服务器芯片切入AI训练市场,2024年出货量同比增长150%。供给端的竞争,让企业有了更多选择,避免了过去“被迫高价采购单一品牌”的情况,也间接拉低了整体市场金额增速。

四、2026年见顶信号:行业进入“存量优化”时代

Omdia报告提到“2026年AI基础设施支出占数据中心总支出比例将达峰值”,这一“见顶信号”常被误读为“AI芯片市场要衰退”,实则是行业从“AI独大”转向“协同发展”的标志。

数据中心总支出包括AI基础设施(芯片、服务器)、传统IT(存储、网络、运维)等。2022-2024年,AI支出占比从15%飙升至45%,是因为“AI是唯一的增量引擎”;但到2026年,当AI支出占比达峰(预计55%)后,传统IT支出将重新获得增长空间——原因很简单:AI算力需要更强的存储(比如存算一体架构)、更快的网络(400G/800G以太网)、更智能的运维(AI管理AI数据中心),这些“配套设施”的升级将成为新的增长极。

这意味着行业从“AI孤军突进”转向“AI与传统IT协同发展”。比如,2024年Meta新建的AI数据中心,不仅采购GPU,还同步升级了液冷系统(能耗降低40%)、分布式存储(容量提升3倍),传统IT支出占比同比提升18%。这种“协同效应”让数据中心总支出更均衡,AI支出占比虽回落,但绝对值仍在增长——2030年AI芯片市场规模达2860亿美元,较2025年增长38%,只是不再“一家独大”。

狂飙三年,AI芯片踩下刹车!67%增速藏着需求变了,2026年这样走

五、长期趋势:从“算力扩张”到“价值重构”的新赛道

2030年2860亿美元的市场规模,说明AI芯片仍是“长坡厚雪”的赛道,但增长逻辑需要从“规模思维”转向“价值思维”。未来十年,行业将围绕三个关键词展开竞争:

算效优先。企业不再比拼“拥有多少芯片”,而是“每瓦算力能创造多少收入”。2024年谷歌发布的“算力效率指数”显示,其TPU v5e在广告推荐场景的“每美元算力产出”是通用GPU的2.3倍,这让谷歌在2024年Q3广告收入同比增长15%,而AI算力成本仅增长8%。未来,“算效”将成为芯片厂商的核心卖点,推动行业从“硬件内卷”转向“软硬协同优化”。

场景深耕。通用GPU无法满足所有场景需求,“场景化芯片”将崛起。比如医疗影像AI需要处理大量DICOM格式数据,对存储带宽要求极高,专用ASIC芯片(如联影医疗的AI加速芯片)在该场景的效率是GPU的5倍;工业质检需要低延迟,FPGA因可编程性成为首选。2024年专用芯片市场规模同比增长240%,未来五年将保持100%以上增速,成为新的增长引擎。

狂飙三年,AI芯片踩下刹车!67%增速藏着需求变了,2026年这样走

协同网络。算力不是“孤岛”,而是“网络”。2024年欧盟启动“欧洲算力网络”,将德国、法国、西班牙的AI数据中心通过低延迟网络连接,实现“算力共享”——白天德国用算力训练汽车模型,晚上将闲置算力借给法国药企做分子模拟。这种“分布式算力网络”能提升全球算力利用率,预计2030年全球算力利用率将从目前的45%提升至70%,间接推动芯片需求向“网络化、模块化”方向发展。

结语

AI芯片增速从250%降至67%,不是“警报”,而是“成年礼”。行业告别了“野蛮生长”的青春期,进入“理性深耕”的成年期。对企业而言,需要放下“规模焦虑”,抓住算效、场景、协同三大关键词;对投资者而言,要从“追高增速”转向“看价值创造”——那些能提升算力效率、适配场景需求、推动协同发展的企业,才能在2030年2860亿美元的市场中占据先机。

增速放缓不是结束,而是新赛道的开始。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap