首页 AI科技文章正文

黄仁勋最新洞察:AI 推理 10 亿倍爆发!OpenAI 冲刺万亿美元,华尔街仍旧低估

AI科技 2025年10月02日 02:39 1 aa

黄仁勋刚刚甩出一张“指数级炸药图”:AI 推理需求不是翻倍,而是 10 亿倍!在 GTC 闭门会上,他直言 OpenAI 正把 GPU 当“印钞机”,用 1 万亿美元模型撬 10 万亿美元增量,而华尔街还把 NVIDIA 当“卖铲人”给 40 倍 PE。

黄仁勋最新洞察:AI 推理 10 亿倍爆发!OpenAI 冲刺万亿美元,华尔街仍旧低估

9 月 26 日,英伟达创始人兼 CEO 黄仁勋在最新与 BG2 访谈中,围绕 AI 行业趋势、计算范式转折、企业战略定位以及与 OpenAI 的合作展开了系统阐述。这是他首次完整解释英伟达对 OpenAI 投资 1000 亿美元的原因,同时披露了公司在全栈协同设计、供需逻辑和市场潜力方面的思考。

他指出,摩尔定律失效使传统通用计算走向终点,全球数万亿美元的计算基础设施正在加速迁移到 AI 架构之上。AI 的需求正经历“双重指数级”的复合增长,既包括用户规模和使用时长的爆炸式上升,也包括推理方式从“一次性回答”升级到“思考”所带来的算力消耗倍增。

在他看来,AI 工厂正在成为新的工业革命,推动全球 GDP 进入加速阶段。在这场长达数小时的对话中,他谈到 AI 推理的 10 亿倍增长预期,阐述 OpenAI 成为下一家万亿美元级超大规模公司的可能性,并强调英伟达的定位已不再是芯片公司,而是全球 AI 基础设施的核心伙伴。

AI 计算范式的指数级转折

黄仁勋在访谈中首先谈到 AI 推理需求的变化。他指出,摩尔定律的终结已是行业共识,晶体管的价格和能耗不再下降,传统依赖 CPU 的通用计算方式难以维持所需的性能扩展。在这样的背景下,AI 的计算需求正在经历双重指数的复合增长:一方面是用户数量和使用率的指数级上升,另一方面是每次使用所需计算量的指数级提升,两者叠加正在推动一场新的工业革命。

他把这种变化总结为三条扩展法则:预训练、后训练和推理。预训练已经有明确的规模法则,后训练类似于不断练习,通过尝试提升模型能力,而推理的范式则正在经历根本转变。从“一次性回答”转向“思考”,意味着在生成答案之前,模型会先进行研究、核查事实并展开逻辑推演。这一变化让单次调用的计算需求成倍放大。他强调,推理的增长不是一百倍,也不是一千倍,而是 预计将达到 10 亿倍。

在他的描述中,过去的 AI 推理只是短促的问答,而现在的推理是一种链式思维的展开。在回答问题前,模型会进行调研、事实验证和知识演绎,然后才生成结果。思考的时间越长,得到的答案就越准确、越有深度,而背后消耗的算力也随之激增。推理从单一动作转变为动态的学习与演算,使其成为 AI 行业最重要的算力驱动。

黄仁勋进一步指出,新的推理方式不仅让 AI 的回答质量提升,也推动了计算消耗的持续增长。如今的 AI 已经不是单一模型,而是由多个语言模型并发运行组成的系统。这些模型在同一时间调用工具、进行研究、生成内容,甚至生产视频和图像。复杂的系统级智能体并行运行,使得每一次调用都带来更多计算步骤,这正是指数级增长的来源。

在他的表述中,预训练、后训练和推理三条扩展法则共同作用,构成了新的发展路径。预训练是基础,后训练是结合训练与推理的反复尝试,而推理是“思考”能力的展现。这三者叠加,让算力需求的扩展速度远超此前任何一个阶段。推理环节的消耗正在超过训练,成为计算需求增长的核心引擎。

他把这种转变比作工业革命。就像电机替代了人类体力,AI 推理正在替代人类的知识劳动。生成 tokens 的过程,本质上就是为人类提供增强的智能。他举例称,如果一家企业为一名薪酬 10 万美元的员工额外配置 1 万美元的 AI 工具,该员工的生产力可以提升 2 到 3 倍。当这种模式被推广到整个组织甚至整个社会时,整体生产力的增量将直接转化为 GDP 的提升。

黄仁勋认为,AI 的到来与工业革命、数字革命具有相同级别的意义。过去两千年全球 GDP 基本没有增长,直到工业革命带来了加速,而如今 AI 正在开启新一轮生产力跃迁。他指出,AI 正在创造一个全新的 Agent 行业,其中 OpenAI 是代表性企业,正在以历史最快的速度实现收入增长,而这背后正是推理需求的支撑。

OpenAI 万亿美元潜力与投资逻辑

黄仁勋认为,OpenAI 极有可能成为下一家万亿美元级的超大规模公司。与 Google、Meta 这样的企业类似,它将同时提供面向消费者和企业的服务,并在基础设施层面具备超大规模能力。对于英伟达而言,这是在合适的时间押注一个潜在市值数万亿美元公司的机会。他强调,这类投资可以被视作“能想象到的最聪明的投资之一”,因为英伟达本身深耕于该领域,对其发展逻辑和潜在价值有深入理解。

在具体合作层面,英伟达已经与 OpenAI 共同推进多个项目。首先是继续加速 Microsoft Azure 的建设,这一合作已开展多年,涉及数千亿美元的长期投入。其次是与 Oracle Cloud Infrastructure 的合作,也将推动数个吉瓦规模的基础设施建设。同时,英伟达还参与了与 SoftBank、CoreWeave 等的合作项目,所有这些都已签订合同并在执行之中。新的合作关系,则是在此前基础上进一步延伸,直接帮助 OpenAI 构建属于自己的 AI 工厂。

黄仁勋解释说,这次合作的特殊之处在于,英伟达不仅在芯片、软件和系统层面提供支持,还会深入到工厂级别的建设中,帮助 OpenAI 成为一家全面运营的超大规模公司。随着 OpenAI 客户数量的指数级增长,以及单次使用计算需求的指数提升,它们的算力需求叠加效应远超以往。英伟达要做的,是通过系统性投入,满足这一需求爆发。

他将 OpenAI 的模式比作亚马逊的 AWS、Google Cloud 或微软的 Azure。随着计算需求不断放大,OpenAI 不仅会使用大规模自建的计算能力,也可能将部分容量对外出售,形成云服务商的商业模式。黄仁勋强调,OpenAI 已经达到了足够的规模,必须与英伟达建立直接关系,形成直接的采购与协同机制,而不是依赖第三方。他将这种关系与英伟达与 Meta、Google、微软之间的直接合作相提并论。

在他看来,OpenAI 之所以值得投入,原因不仅在于它的服务增长迅速,更在于它正在经历两个指数级增长叠加的过程。第一条曲线来自用户数量和使用量的爆发式增长,如今几乎每一个应用程序都在接入 OpenAI 的服务。第二条曲线则是推理范式的变化,从“一次性回答”转向“思考”,让每次调用的算力消耗倍增。这两条曲线相互叠加,使得 OpenAI 的增长具有远超其他公司的确定性。

黄仁勋进一步指出,这笔投资并不是“必须”的,英伟达并没有义务投资 OpenAI,但在有机会时,他们乐于成为投资方。他坦言,自己唯一的遗憾是没有在更早期投资,当时因为资金不足而错过了更大的投入机会。如今,OpenAI 的估值和成长速度证明了其潜力,而英伟达的参与能够强化其在基础设施层面的优势。

在规模测算上,黄仁勋给出了一个明确的数字:OpenAI 的 10 吉瓦级别数据中心项目,可能为英伟达带来约 4000 亿美元的收入。这一数字基于购售协议、资本投入和收入增长的综合判断。他强调,OpenAI 的收入正在呈指数级增长,融资能力和资本支出都与其快速增长的营收相匹配。这些资金将通过股权、债务以及收入回流等方式实现,足以支撑其庞大的基础设施扩建计划。

在他的叙述里,英伟达与 OpenAI 的合作不是单纯的买卖关系,而是深入到供应链和系统架构的长期绑定。他称这种关系类似于马斯克与 X 的合作模式,属于直接且紧密的长期协作。他强调,这是一种涵盖从芯片到系统再到工厂的全栈合作,不仅带来直接的业务机会,更构成战略投资的价值。

他反复提到,OpenAI 之所以会成为下一家万亿美元级公司,是因为它站在两条指数曲线的交点上。无论是消费级应用还是企业级服务,未来的扩展空间都极为广阔。而英伟达的角色,是帮助其建成“AI 工厂”,为这一指数增长提供底层保障。黄仁勋的结论是,英伟达是 OpenAI 的 AI 基础设施伙伴,通过资本与技术的双重投入,帮助其构建自有的算力网络和工厂体系。这样的投资与合作,将在未来几年产生超大规模的经济效益,也可能推动 OpenAI 进入万亿美元市值的行列。

AI 基础设施的工业革命与市场潜力

黄仁勋将 AI 基础设施的建设比作一场新的工业革命。他指出,通用计算已经走到终点,未来属于加速计算与 AI 计算。世界上数万亿美元的现有计算基础设施,包括搜索、推荐引擎和购物等应用场景,仍然主要运行在 CPU 上。随着摩尔定律的失效,这些工作负载将不可避免地迁移到 AI 加速架构之上,而这背后所代表的是一个庞大的市场机会。

他强调,如今大部分的结构化和非结构化数据处理仍然依赖 CPU,例如 Databricks、Snowflake 或 Oracle SQL 处理系统,几乎都还在用 CPU 完成。未来这些数据处理都会迁移到 AI 上,这是一个即将被释放的巨大市场。英伟达计划通过构建特定领域的数据处理方案,推动这一转型的实现。他提到,NVIDIA 做的一切都需要一个加速层,而 AI 数据处理就是最关键的下一步。

在他的测算中,AI 基础设施市场当前的年规模约为 4000 亿美元,但总体潜在市场至少能扩大 10 倍。他解释,AI 基础设施的价值不仅体现在替代现有工作负载,还体现在生成 tokens 所带来的增量经济效应。生成 tokens 就是增强人类智能,而增强人类智能的经济价值是以数十万亿美元为单位计量的。

他用一个具体的例子来说明:假设一名薪酬 10 万美元的员工配备价值 1 万美元的 AI 工具,该员工的产出可能翻倍甚至三倍。如果这种模式被大规模推广,全球 GDP 的增量将十分可观。黄仁勋进一步推演,全球 GDP 中约 55% 至 65% 来自知识劳动,规模大约 50 万亿美元。如果这部分劳动通过 AI 得到增强,即便只提升 20%,也是万亿美元级的增量,而这些全部需要通过 AI 基础设施来支撑。

他把这种场景与工业革命相对比。工业革命依靠电机替代体力劳动,数字革命通过计算机提升信息处理效率,如今 AI 工厂则是用算力去增强思维和知识劳动。AI 工厂正在成为人类历史上最复杂的系统工程,它结合了融资、采购、土地、电力和机壳等多个环节,任何一个环节的缺失都会影响整体运转。在他看来,这种复杂性也正是产业进入拐点的标志。

黄仁勋指出,这一趋势已经体现在各大公司中。没有 AI,就不会有 TikTok 的推荐流,也不会有 YouTube Shorts 的个性化推送,更不会有 Meta 为定制内容提供的个性化体验。所有这些如今都依赖 GPU 来驱动,而在几年前,它们还主要依靠 CPU。GPU 驱动的推荐与搜索,其实是非常新的现象,但已经迅速成为互联网的核心。

他强调,AI 与过去的 IT 最大的不同是,软件不再是一次性写好交给 CPU 执行,而是需要持续生成和运行。为了让 AI 持续“思考”,必须有一个工厂式的基础设施来支持,tokens 的产出过程依赖长期稳定的算力供应。黄仁勋提出,如果全球每年新增 10 万亿美元的生产力,其中 50% 转化为毛利,就意味着需要建立 5 万亿美元规模的 AI 基础设施。这与当前全球年资本支出规模相匹配,也验证了他的测算逻辑。

在他的表述中,AI 正在成为全球 GDP 增长的新引擎。在过去两千年的历史中,GDP 基本保持停滞,直到工业革命推动了快速扩张,随后数字革命进一步提升,如今 AI 将为经济再次插上翅膀。他认为,随着数十亿 AI “同事”的出现,世界 GDP 的增长率会出现新的加速。

英伟达的收入几乎与计算能力挂钩,当数据中心整体算力提高 10 倍,英伟达的业务规模也会随之放大。他特别强调,每瓦性能的提升是核心,因为 tokens 产出每隔几个月就会翻倍,只有持续提升每瓦性能,才能跟上指数级增长的节奏。

在能源层面,他认为 AI 工厂也在推动整个能源产业的复兴。核能、燃气轮机等传统能源将因为 AI 工厂的电力需求而再度焕发活力,供应链中的各类公司都会因此受益。他指出,AI 工厂不仅改变了计算产业,还将带动能源、材料和基础设施的全方位扩张。

极致协同设计与护城河的形成

黄仁勋在访谈中强调,摩尔定律已经失效,晶体管的价格和功耗几乎停滞不前,性能不再依靠单颗芯片的线性提升获得突破。在这种背景下,英伟达选择通过“极致协同设计”来推动性能的跨越式增长。所谓协同设计,是指在算法、模型、软件、网络、芯片乃至系统层面同时进行优化与创新,而不是仅仅依赖某一环节的改进。他表示,这种跨层次的设计方式让英伟达能够在短时间内实现从 Hopper 到 Blackwell 的巨大性能跃迁。

他提到,英伟达在 2024 年恢复年度发布周期,并通过 Grace Blackwell 架构对数据中心进行大规模升级。到 2026 年下半年,Vera Rubin 平台将推出,随后在 2027 年发布 Ultra,再在 2028 年推出 Feynman。年度发布周期背后的目标,是确保每年的性能增长速度能够跟上 tokens 生成的指数级扩张。如果无法维持这样的速度,tokens 生成成本将持续上升,而这对客户来说是不可接受的。

在他的描述中,英伟达从 Kepler 到 Hopper 的十年间,性能实现了 10 万倍的提升,而在 Hopper 到 Blackwell 的阶段,仅凭 NVLink 72 技术就带来了 30 倍的跃升。这一切都不是依靠摩尔定律,而是依靠系统级的深度协同。他指出,从芯片到网络、从 CPU 到 GPU,再到 NIC 和以太网,每一个层面都必须同时改造,才能实现这种数量级的性能飞跃。

黄仁勋解释,极致协同设计意味着要跳出传统的创新框架。摩尔定律时代,设计者只需不断提高 CPU 的速度,就能带动整个系统性能的改善。而当晶体管不再带来红利,单点提升的意义就消失了。英伟达的做法是同时改造整个堆栈,包括 GPU 架构、CPU 架构、网络交换设备、系统软件和编程工具。他强调,英伟达不仅仅在制造芯片,而是在打造一个完整的 AI 工厂。

在网络层面,他特别提到 Spectrum X。外界常常认为它只是以太网,但在他看来,Spectrum X 已经超越传统以太网的范畴。英伟达的以太网业务如今是全球增长最快的部分,原因正是协同设计的推动。他指出,客户部署一个吉瓦级数据中心意味着要使用 40 万到 50 万块 GPU,让如此规模的硬件协同工作是一种奇迹,而这背后必须依赖极致的系统设计。

他还提到,英伟达通过 CUDA 发明了 GPU 编程的统一标准,使得整个生态可以围绕 GPU 架构进行实验与创新。这为 transformer 架构和注意力机制的快速迭代提供了可能。如果没有 CUDA,研究者几乎无法在如此大规模上尝试各种算法与架构,而这正是英伟达护城河的重要组成部分。

在供应链层面,年度发布周期不仅是技术挑战,也是一种规模考验。每年发布数千亿美元级别的产品,需要晶圆厂、HBM 供应商和系统组装厂提前几年准备产能。黄仁勋指出,只有英伟达能够在供应链中提供这种三年的可见性,确保数十万块 GPU 能够按时交付。这让客户在下单时拥有更高的信心,也进一步加深了英伟达的护城河。

在竞争层面,他认为 ASIC 厂商面临巨大的挑战。谷歌 TPU 的成功得益于极早的布局,但这并不能复制。市场一旦变得庞大,ASIC 模式就会受到限制,因为客户不愿为代工厂支付 50% 到 60% 的毛利率。当市场规模扩大,客户往往会选择自建工具,而英伟达的体系已经形成了难以替代的生态。他指出,ASIC 在视频转码、SmartNIC 等小规模场景有意义,但在 AI 工厂这样庞大的计算场景下,很难承担基础性的角色。

他重申,英伟达的优势来自两个方面:极限的协同设计和极限的规模。协同设计确保了单位能耗性能始终保持领先,而规模则保证了供应链和客户的长期信任。他直言,客户愿意为英伟达的新架构一次性下达 500 亿美元的订单,这是其他公司无法获得的信任。即使竞争对手的芯片免费提供,客户依然会选择英伟达系统,因为机会成本过于高昂。

在他的逻辑里,客户受到电力约束,新增 1 吉瓦电力必须产出最高的 tokens 收益。如果使用性能较差的芯片,即使免费,也意味着放弃数十倍的收入增量。每瓦性能的差距,最终决定了客户的收入差距。因此,英伟达的护城河不是单一产品的性能,而是整个系统在能效、规模和生态上的全面优势。

英伟达不再是一家传统意义上的芯片公司,而是一家 AI 基础设施伙伴。通过极致协同设计和全栈式创新,它在构建一个复杂而庞大的 AI 工厂系统。这种模式让客户在面对快速扩张的算力需求时,几乎没有替代选择。

华尔街低估与供需逻辑

黄仁勋谈到外界对英伟达增长的普遍预期时指出,华尔街分析师大多认为公司将在 2027 年后进入增长停滞期,他们的模型预测在 2027 年到 2030 年之间,英伟达的年增长率可能降至 8%。然而在他看来,这一判断与现实脱节,因为整个行业的计算资源仍处于严重短缺状态。

他解释说,市场上流行的一种观点是,AI 芯片短缺只是暂时现象,几年之后会转向供过于求。但他强调,这种可能性在未来几年几乎不存在。在所有通用计算尚未完全迁移到加速计算、所有推荐引擎尚未全部基于 AI、所有内容生成尚未全面使用 AI 之前,供给过剩的情况根本不可能出现。行业还处于需求快速扩张的阶段,短缺才是常态。

黄仁勋把当前的市场定位在“为机会而构建”。他提出了三个思考点。第一,通用计算的终结是物理规律决定的,这意味着未来的计算必然属于加速计算和 AI。第二,人工智能的应用已经无处不在,从搜索到推荐系统,再到电子商务,原本依赖 CPU 的负载正在大规模转向 GPU。第三,随着 AI 的兴起,未来还会出现大量全新的应用,而这些都需要全新的基础设施。

他强调,AI 不是一个额外的附加需求,而是对既有计算方式的全面替代。过去的推荐引擎依赖 CPU,现在则必须运行在 GPU 上。这不仅是增量的需求,更是存量的迁移。Meta、Google、ByteDance、Amazon 等公司已经在大规模推动这种转变,而这本身就是数千亿美元的市场。

在谈到未来市场的测算时,他给出了一套推演逻辑。全球 GDP 大约一半与知识劳动相关,规模约 50 万亿美元。通过 AI 工具增强知识劳动,可以带来数万亿美元的生产力提升。而要支撑这些增量,必须依赖 AI 工厂。AI 工厂是全新的基础设施类别,其市场规模至少相当于全球每年 5 万亿美元的资本支出。他认为,这样的规模足以支撑英伟达长期的增长潜力,而不仅仅是几年内的扩张。

他指出,供给是否过剩的判断核心在于 tokens 的生成速度。如今 tokens 的产量几乎每隔几个月就翻倍,而每瓦性能的提升必须持续跟上这种节奏。英伟达的收入与全球计算能力高度挂钩,只要算力保持翻倍,英伟达的业绩也会持续上行。因此,分析师基于线性预测得出的结论无法反映真实情况。

在供需层面,他还提到,英伟达作为产业链的末端,是被动响应需求的角色。当超大规模客户提交年度计划时,英伟达根据需求去组织生产。他透露,过去几年,华尔街的预测屡次被证明是低估,因为实际需求总是超出预期。行业的状态不是产能过剩,而是“每年都在紧急应对增长”。

黄仁勋表示,过去几年里,英伟达已经彻底重组供应链,从晶圆制造到 HBM 存储器,再到系统组装,都进行了深度整合。如今如果市场需要翻倍产能,供应链可以立即跟进。他强调,产业短缺并不是因为缺乏 GPU,而是因为需求释放太快。只要有订单,英伟达就能生产。这种能力来源于规模化的供应链准备和客户对英伟达的长期信任。

在他看来,传统的大型云服务商在行动节奏上可能稍显保守,但最终都在加速投入。例如微软 CEO 萨提亚曾表示,未来会以更快速度扩展计算能力,而其他超大规模客户也在加快建设。他认为,这是因为第二条指数曲线——推理需求的爆发——已经触发。AI 不再只是记忆和总结,而是在进行研究、工具调用和多模态生成,这些都极大拉高了计算需求。

他还特别强调了数据处理市场的重要性。当前世界上绝大多数的数据处理仍在 CPU 上运行,未来这些将迁移到 AI 加速架构。这是一个规模巨大的机会,可能带来比现有市场更庞大的增长空间。他表示,英伟达正在构建新的配方与方案来支持加速数据处理,这会成为公司新的增长引擎。

对于外界担忧的“泡沫”说法,他并不认同。他认为,真正支撑增长的不是金融工程,而是用户需求和基础设施的现实建设。OpenAI、Meta 以及其他公司正在实际投入数百亿美元甚至上千亿美元建设数据中心,这是有真实产出和真实需求的支撑。因此当前的市场状态更接近工业革命,而不是互联网泡沫。

本文由人人都是产品经理作者【江天 Tim】,微信公众号:【有新Newin】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap