英伟达今日公布了该公司的 2026 财年第三财季财报:营收为 570.06 亿美元,同比增长 62%,环比增长 22%;净利润为 319.10 亿美元,同比增长 65%,环比增长 21%;不按照美国通用会计准则的调整后净利润为 317.67 亿美元,同比增长 59%,环比增长 23%。(注:英伟达财年与自然年不同步,2025 年 1 月底至 2026 年 1 月底为 2026 财年)

财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。

  以下是分析是问答环节主要内容:

摩根士丹利分析师 Joseph Moore:管理层此前提到公司 Blackwell 与 Rubin 架构在 2025 至 2026 年与高性能计算数据中心的相关营收规模将达 5000 亿美元,当时称已有 1500 亿美元的相关产品交付完成。如今多个季度已经过去,按规划未来 14 个月左右需完成剩余 3500 亿美元的目标。考虑到这段时间里市场需求或许仍未完全释放,后续这些营收数据是否有可能进一步增长?

科莱特·克雷斯:情况确实如你所说,我们正朝着 5000 亿美元的预期目标推进,目前进度符合规划,经过多个季度的推进,后续仍有充足时间推进目标达成。到 2026 年底,这一数字必将增长,我确信到 2026 财年,我们还能满足更多可交付的算力需求。我们本季度已交付价值 500 亿美元的产品,此外还有更多潜在订单。比如,今天我们与沙特阿拉伯达成协议,未来三年内将额外供应 40 万至 60 万块图形处理器(GPU)。同时,我们还新增了埃瑟尔(分布式 GPU 云计算提供商)这一合作方。因此,除了已公布的 5000 亿美元目标,我们的营收绝对有进一步增长的空间。

Cantor Fitzgerald 分析师C.J. Muse:目前市场对人工智能(AI)基础设施建设的规模、相关计划的资金保障及投资回报率均深感担忧。但与此同时,你们却表示图形处理器产品供不应求、订单全满。而且目前业界尚未充分享受到 B300 带来的巨大效益,更不必说刚发布的鲁宾平台和双子座 3 号模型了,格罗克 5 号也即将推出。基于这样的行业背景,你认为未来 12 至 18 个月内,算力供应有望追上市场需求吗?还是说供需缺口的持续时间会更长?

黄仁勋:众所周知,我们在供应链规划方面做得十分到位。英伟达的供应链几乎涵盖了全球所有相关科技企业,包括台积电的封装业务、存储设备供应商、各类原始设计制造商(ODM)等合作伙伴,都与我们配合默契,共同推进规划落地,为关键的一年做好万全准备。

一段时间以来,行业正经历三大重要转型,这一点我此前也提及过。其一就是从通用计算向加速计算的转型,值得注意的是,人工智能不仅包括智能体人工智能,生成式人工智能也在改变超大规模企业以往依赖中央处理器(CPU)开展工作的模式。借助生成式人工智能,超大规模企业得以将搜索、推荐系统等业务从 CPU 迁移过来,目前这一转型仍在进行中。无论是用于数据处理、推荐系统的生成式人工智能开发,还是用于智能聊天机器人研发的 GPU,均可通过英伟达的产品提升运行效率。这些应用场景虽各有不同但均在快速发展,且得益于人工智能模型质量的持续提升,它们都能依托英伟达 GPU 顺畅运行。

生成式人工智能的应用场景还在不断拓展。以代码辅助领域为例,英伟达自身便大量应用这类技术,其实行业内众多企业亦是如此。像 Cursor 编程助手、云代码工具、开放式人工智能的代码生成模型以及代码托管平台的编程助手等组合应用,是当前发展速度最快的应用类型之一。如今这类工具已不仅限于软件工程师使用,借助可视化编程技术,企业内部的工程师、营销人员以及供应链规划人员等都能运用。类似的应用案例还有很多,比如医疗领域的 OpenEvidence 公司、数字视频剪辑领域的 Runway 公司等。众多新兴初创企业都在积极运用生成式人工智能与智能体技术,而且人工智能的日常使用率也在持续攀升。

人工智能模型的训练工作也在稳步推进,我今天收到了德米斯(Demis Hassabis,Google 人工智能公司 DeepMind CEO),他表示人工智能模型的预训练与后续优化工作均进展顺利,谷歌 Gemini 3 人工智能模型就充分运用了规模法则,其性能与质量均实现了大幅飞跃,行业正同时迎来多重增长爆发点。我们不妨回归核心逻辑,观察这几大行业变革趋势,那就是通用计算向加速计算转型、生成式人工智能崛起、人工智能逐步替代传统机器学习,再加上智能体人工智能这一全新领域的出现。种种变革叠加之下,算力供需平衡的实现还需要一定时间。

美银美林分析师 Vivek Arya:我想了解,在公司 5000 亿美元的目标规模中,你们提出的每吉瓦数据中心所做的资本支出是基于什么假设?我们听到的行业数据差异较大,最低每吉瓦对应 250 亿美元相关产品价值,最高则达到 300 亿至 400 亿美元。想明确你们在制定 5000 亿美元目标时,对每吉瓦的电力消耗及对应美元价值是如何假设的?另外,黄仁勋之前提到 2030 年数据中心市场规模将达到 3 万亿至 4 万亿美元。你认为其中多少需要供应商融资支持,又有多少来自大型客户、政府或企业的现金流?

黄仁勋:公司的各个芯片架构,从 Ampere 到 Hopper,到 Blackwell、再到 Rubin,每一代产品都在推动数据中心相关价值增长。Hopper 系列每吉瓦对应的产品价值约为 200 多亿至 250 亿美元;Blackwell 系列,尤其是 Grace Blackwell,大约在 300 亿美元左右上下浮动;Rubin 系列则可能更高。每一代产品的性能都实现了数倍提升,因此客户的总拥有成本(TCO)也随之数倍优化。关键在于,数据中心的电力上限通常为 1 吉瓦,所以每瓦性能,也就是架构的能效至关重要,这一点无法靠蛮力实现。1 吉瓦的电力限制下,每瓦性能直接决定了最终的营收,这也是选择合适架构的核心意义所在。如今,全球没有任何资源可供浪费。因此我们在整个技术栈中推行“协同设计”理念,这一理念覆盖框架与模型、数据中心整体,甚至对供应链和生态系统中的电力与冷却系统进行全面优化。所以每一代产品的经济贡献和交付价值都会提升,最重要的是,每一代产品的能效都将实现质的飞跃。

关于客户新增的资金来源,这取决于他们自身。我们认为未来增长空间广阔,且当前市场焦点多集中在超大规模数据中心提供商上,投资英伟达 GPU 不仅能提升其通用计算的规模、速度并降低成本,这一点至关重要,因为摩尔定律的演进已大幅放缓。摩尔定律的核心是降低成本,实现计算成本的长期通缩,但如今这一趋势减弱,因此超大规模企业需要新的方式来持续控制成本,而英伟达 GPU 计算正是最佳选择。

其次,英伟达还能提升他们现有业务模式的营收。推荐系统是全球超大规模企业的核心驱动力,无论是短视频推送、图书推荐、购物车商品推荐,还是广告、新闻推荐,本质上都依赖推荐系统。互联网上有万亿级别的内容,若没有精密的推荐系统,企业根本无法在小小的屏幕上为用户精准推送内容,而现在,推荐系统已全面转向生成式人工智能。我刚才提到的数千亿美元资本支出,完全可以通过客户的现金流覆盖。在此基础上,智能体人工智能将带来全新的收入和消费需求,同时催生众多、史上增长最快的全新应用。一旦人们深入了解资本支出背后的深层逻辑,就能看清这三大核心驱动力。

最后需要强调的是,我们之前讨论过美国的云服务提供商,但实际上每个国家都会为自身的基础设施提供资金支持。全球有众多国家和行业,其中大多数行业尚未涉足智能体人工智能,但即将入局,比如我们合作的自动驾驶企业、为工厂打造实体人工智能数字孪生体的企业,全球范围内新建的工厂和仓库,以及众多获得融资、旨在加速药物研发的数字生物学初创公司。不同行业都已开始参与其中,并将自行筹集资金。因此,不能只盯着超大规模数据中心提供商来展望未来的基础设施建设,而应放眼全球、覆盖所有行业,企业级计算领域将自行承担本行业的相关资金需求。

Melius Research 分析师 Ben Reitzes:我想请教黄仁勋关于现金流的问题。参考之前提到的 5000 亿美元规模的情况,未来几年公司或许会产生约 5000 亿美元的自由现金流。对于这笔资金,你们有何规划?在股票回购与生态系统投资之间的比例如何分配?如何看待生态系统方面的投资?目前市场上对于这类合作的运作模式,以及公司投资 Anthropic、OpenAI 等企业的标准,存在诸多困惑,麻烦管理层解答。

黄仁勋:首先,现金流将用于支撑公司的增长。没有任何一家公司能在达到我们所讨论的增长规模时,还能拥有英伟达这样广泛且深厚的供应链资源与合作关系。全球客户之所以能信赖我们,核心原因在于我们构建了极具韧性的供应链,且拥有强大的资产负债表作为支撑。当我们进行采购时,供应商完全可以放心合作;当我们与他们分享业务预测、共同规划时,他们会认真对待。这都源于我们稳健的资产负债表。我们的产能需求并非凭空捏造,而是有明确依据的。多年来,我们与供应商始终保持紧密的规划协作,积累了极高的声誉与可信度。要支撑如此庞大的增长规模、增长速度和体量,必须具备雄厚的资产负债表,这是我们的首要资金用途。其次,我们会继续推进股票回购,这一举措将持续下去。

关于生态系统投资,这是我们极为重要的一项工作。迄今为止,我们所有的投资都围绕着扩大 CUDA(英伟达提供给开发人员的编程工具)平台的影响力、拓展生态系统展开。以对 OpenAI 的投资为例,我们与该公司的合作始于 2016 年,当时向 OpenAI 交付了全球首台 AI 超级计算机。自那以后,我们便建立了紧密且良好的合作关系。如今,OpenAI 的所有业务都依托英伟达的技术运行,无论是其部署的各类云服务,还是模型训练与推理工作,均采用英伟达的产品,我们非常乐意与他们合作。我们与 OpenAI 的合作,核心是为了深化技术层面的协作,支持他们的高速增长。这家公司正以惊人的速度扩张,不能只关注媒体报道的表面信息,更要看到其背后众多生态合作伙伴与开发者,他们都在推动相关技术的应用,且如今人工智能产品的质量较一年前已有了巨大飞跃,响应效果极为出色。因此,我们投资 OpenAI,是为了建立深度合作与联合开发关系,既拓展我们的生态系统,也助力他们成长。当然,这种投资模式不是我们出让公司股权,而是获取对方的股权。我们投资的是一家具有划时代意义、千载难逢的优秀企业,因此我完全有理由期待这笔投资能带来丰厚的回报。

再看 Anthropic,这是他们首次采用英伟达的架构。Anthropic 的产品是全球用户量第二大的人工智能系统,在企业级市场表现极为出色,其 Claude 代码工具和 Claude 主产品在全球企业客户中广受好评。现在,我们得到与他们建立深度合作的机会,将 Claude 全面接入英伟达平台。

英伟达的架构和平台是全球唯一能运行所有 AI 模型的平台。我们支持 OpenAI、Anthropic、XAI (埃隆·马斯克的人工智能公司)等多家企业的运行,凭借与埃隆及 XAI 的深度合作,我们已将相关合作机会引入沙特阿拉伯,使其成为 XAI 的又一托管方。此外,谷歌的 Gemini(双子座)、Thinking Machines 等各类模型,以及全球各个领域的科学模型,包括生物学模型、DNA 模型、基因模型、化学模型等,均能在我们的平台上运行。人工智能并非只局限于认知智能领域,它正影响着全球每一个行业。通过生态系统投资,我们能够与全球最优秀、最顶尖的企业建立深度技术合作,既扩大了自身生态的覆盖范围,又能投资于这些极具潜力、往往是划时代的成功企业。这就是我们核心的投资逻辑。

高盛分析师 James Schneider:过去管理层曾提到,约 40% 的产品出货量与人工智能推理业务相关。展望明年,公司预计这一比例会发生怎样的变化?另外,能否介绍一下计划明年推出的 Rubin CPX 产品?比如能占据多大的总潜在目标市场规模,以及这款特定产品的目标客户应用场景有哪些?

黄仁勋:CPX 产品专为长上下文类型的生成式工作负载而设计。所谓长上下文,简单来说,就是人工智能在生成答案之前,需要先处理大量信息,可能是一堆 PDF 文档、一系列视频、三维图像数据等等,必须先充分吸收这些上下文信息。因此,CPX 的核心定位是适配长上下文工作负载,其每美元产出性能表现极为出色,完全契合这类场景的需求。

关于推理业务的问题。目前有三大规模法则正同步快速发展,第一是预训练,其效用依然非常显著;第二是训练后优化,这一领域已出现极具突破性的算法,能大幅提升人工智能拆解问题、逐步求解的能力,而且训练后优化正呈指数级增长,也就是投入的算力越多,模型的智能水平就越高;第三是推理,得益于思维链和推理能力的提升,人工智能在给出答案前,本质上是在阅读和思考,再加上前面提到的预训练、训练后优化的需求,这三类场景叠加,使得推理所需的算力呈爆发式增长。所以,很难准确预测某一特定时间点推理业务的出货占比会是多少。但我们希望推理业务能占据市场的很大一部分,因为推理业务规模大,意味着人工智能被应用到更多场景中,且使用频率更高,这是我们共同期待的局面。

Grace Blackwell 在推理领域的表现,比全球任何同类产品都要先进一个数量级。目前第二梯队的顶尖平台是 H200,但很明显,凭借 MP Link 72 这项我们已经实现的横向扩展网络技术,GB300、GB200(Grace Blackwell 系列产品)的性能优势极为突出。科莱特之前也谈到了相关基准测试,这是史上规模最大的单次推理性能测试,GB200 搭配 MP Link 72 的性能,比同类产品高出 10 到 15 倍。这是一次巨大的性能飞跃,竞争对手想要追赶需要很长时间,我们在这一领域的领先优势无疑将持续多年。因此,我非常期待推理业务成为行业焦点,而我们在推理领域的领先地位是无可比拟的。

瑞银分析师 Timothy Arcuri:公司的众多客户都在布局厂内自备电力系统,公司最担忧的、可能制约公司发展的最大瓶颈是什么?是电力供应问题,融资难题,还是像存储设备、甚至晶圆代工厂这类其他方面的问题?

黄仁勋:这些其实都是亟待解决的问题,也都是发展过程中的制约因素。毕竟以我们如今的增长速度和业务规模来看,没有什么事情是轻而易举就能完成的。英伟达现在所做的事业,显然是前所未有的开创性工作,而且我们还开拓出了一个全新的行业领域。一方面,我们正在推动计算模式的转型,从通用型、传统经典的计算模式,朝着加速计算与人工智能计算的方向转变;另一方面,我们还开创了 “人工智能工厂” 这一全新行业。其核心逻辑是,如今软件要顺利运行,不再是简单调取预先存储好的信息,而是需要依靠这些工厂去生成每一个数据单元。我认为这样的全面转型需要达到相当庞大的规模。当然,在供应链方面我们有着极强的把控力和透明度,毕竟我们在供应链管理上造诣深厚,而且还拥有合作了 33 年的优质合作伙伴。所以对于供应链这一环节,我们有着十足的把握。目前,顺着供应链往下游延伸,我们已经与众多涉足土地、电力、厂房建设等领域的企业建立了合作关系,融资领域也不例外。这些事情固然操作难度不小,但都具备推进价值,而且都是能够解决的问题。

当下我们首要的任务就是做好规划工作。我们既要做好供应链上游的规划,也要统筹好下游环节;同时我们发展了大量合作伙伴,因此拥有丰富的市场渠道。尤为关键的是,我们的架构必须为客户创造最大价值。目前我坚信,英伟达的架构不仅有着最优的每成本单位算力表现,还有着最优的每瓦算力表现。这就意味着,无论投入多少电能,依托我们的架构都能创造出最高的收益。而且公司的发展势头还在持续向好,相较于去年同期,如今我们的业绩表现更为亮眼。越来越多的客户主动寻求与我们合作,还有不少企业在考察过其他同类平台后,最终也选择了我们,这样的客户数量一直在增加,从未减少。这么多年来我所提及的那些发展设想,如今要么已经成为现实,要么正逐渐显现出成效,这一点是显而易见的。

伯恩斯坦研究分析师 Stacy Rasgon:我有几个关于利润率的问题问给科莱特。你提到明年计划将毛利率维持在 75% 左右的中高位区间。首先想了解,最大的成本增长来源是什么?仅仅是存储芯片,还是其他因素?为了实现这一目标,你们正在采取哪些举措?成本优化、提前采购与定价策略这三者的贡献占比分别是多少?另外,考虑到明年营收大概率会大幅增长,相较于当前水平,我们该如何看待明年的运营支出(OpEx)增长情况?

科莱特·克雷斯:我先从当前财年的情况说起。记得今年早些时候,我们曾表示通过成本优化和产品结构调整,本财年末毛利率将达到 75% 左右的中高位水平,目前我们已经实现了这一目标,第四季度也将按此方向执行。至于明年,行业会有投入品价格上涨压力,而且我们的系统产品结构复杂,包含大量零部件,涉及多个环节,这些都需要我们妥善应对。但我们相信,通过持续推进成本优化、缩短生产周期以及优化产品结构,依然有能力将毛利率维持在 75% 左右的中高位区间,这是我们明年毛利率的整体规划。

关于运营支出的问题,目前我们的核心目标是支持工程团队和各业务团队持续创新,为市场打造更多系统产品。正如你所知,我们即将推出新的架构,团队正全力推进相关工作以达成目标。因此,我们将继续加大在软件、系统及硬件领域的创新投入,运营支出也会相应增长。

黄仁勋:我完全同意科莱特的说法。我想补充的是,我们会提前很久与供应链进行规划、预测和谈判。供应链伙伴早已了解我们的需求和市场预期,双方长期保持着紧密的协作与协商。近期市场需求的激增固然显著,但要知道,我们的供应链伙伴与我们合作多年,在很多情况下,我们已经为自己锁定了大量供应资源,毕竟我们是全球该领域的头部企业。同时,我们也与他们在财务层面保持密切沟通,确保预测与规划的落地执行。因此,这些前期准备工作都为我们应对成本压力、维持毛利率目标提供了有力支撑。

富国银行分析师 Aaron Rakers:结合公司刚公布的 Anthropic 相关合作方案,再考虑到英伟达广泛的客户群体,我很好奇管理层对人工智能专用集成电路(ASICs)在这类架构搭建中所扮演的角色看法是否有变化?黄仁勋过去一直坚定地认为,这类项目中有不少最终根本不会投入实际部署。而我想知道,如今的形势是否进一步向更青睐采取 GPU 架构的方向倾斜?

黄仁勋:首先要明确的是,行业内的竞争本质上是团队之间的角逐。全球范围内,真正有能力打造这类极其复杂产品的顶尖团队其实寥寥无几。要知道,在 Hopper 架构和 Ampere 架构的时代,我们推出一款图形处理器,就等同于打造出一套完整的人工智能加速计算系统。但如今,我们需要搭建的是整套机柜设备,还得研发三种不同类型的交换机,分别对应纵向扩展、横向扩展以及跨平台扩展的需求。而且如今构建一个计算节点,绝非单靠一枚芯片就能实现,当下的计算系统有了诸多全新要求。比如人工智能现在需要具备存储能力,这在以往是不存在的,如今它必须能够存储信息;其所需的存储容量与上下文数据量极为庞大,这也给存储架构设计带来了极大挑战。此外,人工智能模型的种类也呈爆发式增长,从混合专家模型、稠密模型、扩散模型到自回归模型,更不用说那些遵循物理定律的生物模型了,这类模型的数量在近几年大幅增多。

当前行业面临的难题在于,不仅技术研发的复杂程度大幅提升,人工智能模型的多样性也达到了前所未有的水平,而我们之所以能保持领先地位,核心得益于以下五个关键优势。其一,我们能为技术转型的每个阶段提供高效的加速支持。凭借统一计算架构及其扩展技术,我们实现了从通用加速计算的平稳过渡。无论是生成式人工智能还是智能体技术领域,我们都具备极强的技术实力。客户只需采用我们这一套架构,就能轻松应对这几个阶段中不同工作负载的变化,无需为适配不同阶段而额外投入成本。

其二,我们在人工智能的全流程环节中均表现出色。大家都清楚我们在模型预训练阶段的优势,在模型调优阶段的实力也有目共睹。事实上,我们在模型推理领域同样造诣深厚,推理技术的难度极大。或许有人觉得推理不过是一次性的运算过程,看似简单,任何人都能涉足该领域。但实际情况恰恰相反,推理技术堪称所有环节中最难的一项,因为让系统实现类似人类的“思考”绝非易事。

其三,我们的架构是全球唯一能适配所有人工智能模型的架构。无论是各类前沿人工智能模型,还是开源人工智能模型,我们的架构都能高效运行;无论是科学模型、生物模型,还是机器人相关模型,我们都能全面兼容。无论模型属于自回归类型还是基于扩散原理,亦或是适配各类主流平台,我们的架构都能轻松应对,这一点是全球其他任何架构都无法企及的。

其四,我们的技术覆盖了各类云端场景。开发者之所以青睐我们的产品,核心原因之一就是我们的技术实现了全方位覆盖。我们的产品适配所有主流云平台,甚至还能为客户搭建小型专属计算集群。从云端到本地机房,从机器人系统到边缘设备、个人电脑等各类终端,只要采用我们这一套架构,就能确保所有功能顺畅运行,这种兼容性在行业内是极具优势的。

最后一点,或许也是最为关键的一点,无论是云服务提供商,是 Humane 这类创新企业,还是 CoreWeaver(人工智能云端运算企业)、 Nebius(人工智能原生云平台)以及甲骨文云基础设施这类企业,英伟达对其而言都是最佳的平台选择,核心原因在于我们拥有多元化的产品销路,还能为合作伙伴拓展市场提供助力。在数据中心部署中,随意选用一款专用集成电路绝非可行之策。大家必须考虑产品的市场销路在哪里、业务多样性如何保障、系统稳定性怎样维持,以及架构的通用性和功能的丰富性等诸多问题。而英伟达不仅拥有广阔的市场销路,更构建了庞大的产业生态体系。

综上,正是凭借这五大优势:全转型阶段加速、全人工智能流程适配、全模型兼容、全场景覆盖,最终实现多元市场销路的保障,我们才能在行业中始终保持领先地位。(完)