一、英伟达财报核心信息回顾
1、财务核心信息:2025 财年第四季度是创纪录的季度,营收达 393 亿美元,环比增长 12%,同比增长 78%,高于 375 亿美元的预期。2025 财年全年营收为 1305 亿美元,较上一年增长 114%。

2、数据中心部门 :
1)Q4 收入达到创纪录的 356 亿美元,环比增长 16%,同比增长 93%;FY2025 营收 1,152 亿美元,同比增长一倍多;
2)Blackwell 销售额 Q4 收入超过预期,达到 110 亿美元,是公司历史上最快的产品爬坡,生产全面展开且供应快速增加。Hopper 200 持续增长。第四季度数据中心计算营收环比增长 18%,同比增长超两倍; Q4 计算收入环比增长 18%,同比增长超两倍;
3)推理需求:客户为训练下一代前沿模型和释放 AI 能力,竞相扩展基础设施,大型集群常以 10 万颗或更多 GPU 起步。训练后和模型定制需求旺盛,推理需求加速,如长思考推理 AI 每个任务所需计算量比单次推理多 100 倍。
4)CSPs 贡献:Q4 大型 CSP 占数据中心收入的一半左右,销售额同比增长近 2 倍;区域云托管在数据中心收入中所占比例增加,反映了全球人工智能工厂的建设以及对人工智能推理模型和代理的需求增长;
5)消费互联网:在生成式人工智能和深度学习用例(如推荐系统、视觉、语言理解、合成数据生成、搜索和代理式人工智能)的推动下,消费互联网收入同比增长 3 倍;
6)企业收入:同比增长近 2 倍,原因是对模型微调、RAG 和代理人工智能工作流程以及 GPU 加速数据处理的需求不断增长;
3、游戏部门 :
1)Q4 收入:25 亿美元,环比下降 22%,同比下降 11%。收入下降的原因是供应紧张,但整个假期旺季的需求依然强劲。随着供应量的增加,预计第一季度将出现强劲的连续增长。
2)全年收入:114 亿美元,同比增长 9%。
4、专业可视化业务 :
1)Q4 收入:5.11 亿美元,环比增长 5%,同比增长 10%。
2)全年收入:19 亿美元,同比增长 21%。拉动需求的主要垂直行业包括汽车和医疗保健。
5、汽车业务部门 :
1)Q4 收入:创纪录的 5.7 亿美元,环比增长 27%,同比增长 103%。
2)全年收入:17 亿美元,同比增长 5%。包括汽车和机器人轴在内的自动驾驶汽车的持续增长推动了收入的强劲增长。
3)业务进展:在自动驾驶车辆领域持续增长,包括汽车和机器人出租车。在 CES 上宣布丰田将基于英伟达技术打造下一代车辆,Aurora 和 Continental 将大规模部署由英伟达驱动的无人驾驶卡车。英伟达的端到端自动驾驶平台通过行业安全评估。
6、网络业务收入:Q4 环比下降 3%。不过,公司正在从小型 NVLink 8 与 InfiniBand 向大型和 relinke72 与 Spectrum X 过渡,预计网络业务将在第一季度恢复增长。
7、毛利率 :
1)Q4 GAAP 毛利率:73%。
2)Q4 non-GAAP 毛利率:73.5%。随着 Blackwell 的增长,预计毛利率最初将在 70% 左右,本财年晚些时候将恢复到 70% 左右。
8、运营支出 :
1)Q4 GAAP 运营支出:环比增长 9%。
2)Q4 non-GAAP 运营支出:环比增长 11%,原因是工程开发成本和新产品推出所需的计算基础设施成本增加。
3)FY2026 Q1 预期 GAAP 运营支出:约 52 亿美元。
4)FY2026 Q1 预计 non-GAAP 运营支出:约 36 亿美元。
5)FY2026 全年运营支出:预计增长 30% 左右。
9、股东回报:
1)Q4 度以股票回购和现金分红的形式向股东回报 81 亿美元。
2)FY2026 展望 :总收入预计为 430 亿美元,正负 2%;GAAP 毛利率预计为 70.6%,正负 50 个基点;Non-GAAP 毛利率预计为 71%,正负 50 个基点;GAAP 和 Non-GAAP 其他收入预计约为 1 亿美元,不包括非市场化和公开持有的股权证券损益;GAAP 和 Non-GAAP 税率预计为 17%,正负 1%,不包括任何独立项目。
二、英伟达财报电话会详细内容
2.1 高管陈述核心信息
1、数据中心的创新和市场领导地位 :
1)Blackwell 架构:这是公司历史上最快的产品升级换代,速度之快、规模之大前所未有。Blackwell 的生产正在多种配置中如火如荼地进行,客户的采用范围也在迅速扩大。它能满足整个人工智能市场的需求,从训练前、训练后到推理,跨越云、内部部署和企业等各种环境。
推理优势 与前几代产品相比,Blackwell 的人工智能推理模型具有更高的 token 吞吐量和更低的成本。其革命性的变压器引擎专为 LLM 和混合专家推理而打造,envyLink Domain 可提供比 PCIe Gen 5 更高的吞吐量,确保必要的响应时间、吞吐量和成本效率,以应对推理规模不断增长的复杂性。
2)生态系统与合作伙伴 : 公司的全栈优化以及包括 590 万开发人员在内的庞大生态系统,不断提高客户的经济效益。各行各业的许多领先公司和平台都在利用英伟达的基础架构和软件来开发各种人工智能应用,例如微软必应(Microsoft Bing)利用英伟达 TensorRT 和加速库实现了显著的提速和成本节约。
向机器人和汽车领域拓展:
3)机器人应用: 随着人工智能的发展超越了数字世界,英伟达的基础架构和软件平台被越来越多地应用于机器人和物理人工智能的开发,尤其是在自动驾驶汽车领域。几乎所有的 AV 公司都在利用英伟达在数据中心、汽车或两者上进行开发。
4)汽车垂直领域的增长:公司在汽车垂直领域的收入预计将大幅增长。在 CES 上,现代汽车集团宣布采用英伟达™(NVIDIA®)技术来加速 AV 和机器人开发以及智能工厂计划。此外,还发布了英伟达 Cosmos World Foundation 模型平台,这是一个物理人工智能平台,可彻底改变机器人技术,已被共享出行巨头 Uber 等公司采用。
2、地区市场动态 :
1)美国市场:在 Blackwell 初步放量的推动下,美国数据中心收入的连续增长最为强劲。
2)全球人工智能生态系统发展: 全球各国都在建立自己的人工智能生态系统,对计算基础设施的需求激增。例如,法国 1,000 亿欧元的人工智能投资和欧盟 2,000 亿欧元的人工智能计划表明,在未来几年内,全球人工智能基础设施即将重新定义。
3)中国市场:中国的数据中心销售额占数据中心总收入的比例仍远低于出口管制开始时的水平。在法规没有任何变化的情况下,预计对中国的出货量将大致保持目前的比例,公司将继续遵守出口管制,同时为客户提供服务。
3、网络解决方案和未来增长 :
1)Spectrum X 和 NVLink 交换机:公司正利用 Spectrum X 向 NVLink 72 过渡,Spectrum X 和 NVLink 交换机收入增加,成为新的主要增长点。首批星际之门数据中心将使用 Spectrum X,思科宣布将 X 集成到其网络产品组合中,帮助企业构建人工智能基础设施,这将凭借思科的大型企业足迹和全球影响力将英伟达以太网带入各个行业。
2)人工智能驱动的网络需求:人工智能需要新型网络,英伟达提供了各种网络解决方案,如用于扩展计算或横向扩展的 Link 交换机系统、用于 HPC 超级计算机的量子激励以及用于以太网环境的 Spectrum acts。
4、游戏和专业可视化创新:
1)全新 GeForce 50 系列图形处理器: 这些 GPU 专为游戏玩家、创作者和开发人员打造,融合了人工智能和图形技术,重新定义了视觉计算。它们由 Blackwell 架构提供支持,实现了 2 倍的性能飞跃,并具有神经着色器、数字人类技术、几何和照明等全新的人工智能驱动渲染功能。全新的 DLSS 4 可通过人工智能驱动的帧生成功能将帧速率提升至 8 倍。
2)专业可视化业务增长:英伟达技术和生成式人工智能正在重塑设计、工程和仿真工作负载,并越来越多地应用于 ANSYS、Cadence 和西门子等公司的领先软件平台,从而推动了对英伟达 RTX 工作站的需求。
3)即将举行的活动和会议:重点介绍了即将面向金融界举办的活动,包括在波士顿举行的 TD Cowen 医疗保健大会、在旧金山举行的摩根士丹利技术、媒体和电信大会,以及在加利福尼亚州圣何塞举行的 GTC 年会,届时黄仁勋将发表主题演讲,并为金融分析师提供问答环节。
2.2 Q&A
Q:训练和推理之间的界限日益模糊,这对推理专用集群的未来潜力意味着什么,对英伟达及其客户的整体影响如何?
A:现在存在多种扩展规律,包括预训练扩展规律,因多模态和推理数据用于预训练,其会持续扩展;后训练扩展,使用强化学习的人类反馈、AI 反馈和可验证奖励,后训练的计算量高于预训练,还能生成大量合成数据或合成生成的 token;测试时间计算或推理、长思考等,所需的推理计算量已比大语言模型初期的一次性示例和能力多 100 倍,未来下一代模型的计算量可能是现在的数千倍甚至数十万、数百万倍。设计这样的架构很有挑战,因为能运行所有模型,且在训练方面表现出色,目前大部分计算是推理,所以英伟达的架构很受欢迎。Blackwell 将推理模型纳入设计理念,训练性能大幅提升,对于长思考、测试时间扩展和推理 AI 模型,速度快数十倍,吞吐量高 25 倍。英伟达的架构具有通用性,可根据不同需求配置数据中心,因此现在统一架构的集中度比以往更高。
Q:GB 200 在系统层面的推广进展如何,是否仍存在瓶颈,对 NVL72 平台的热情是否依旧?
A:比在 CES 时更有热情,自 CES 以来已交付更多产品。制造 Grace Blackwell 机架涉及 150 万个组件,非常复杂,但已成功提升产量,上季度实现了约 110 亿美元的收入。由于需求旺盛,客户急切希望拿到产品,后续还需继续扩大规模。很多客户的 Grace Blackwell 系统已上线,英伟达自身的工程、设计和软件团队也有大量安装。总体来说进展良好,合作伙伴也表现出色。
Q:第一季度是否是毛利率的底部?有什么因素让你有信心认为强劲的需求能持续到明年,DeepSeek 及其创新是否改变了这种看法?
A:在 Blackwell 推广期间,毛利率将处于 70% 左右的较低水平。目前重点是加快制造速度,尽快向客户交付产品。当 Blackwell 全面推广后,有望改善成本和毛利率,预计今年晚些时候毛利率将达到 70% 以上的中间水平。系统具有可定制性,有多种网络选项和冷却方式,未来有提升毛利率的机会,但当前重点是尽快完成制造并交付产品。
Q:从近期、中期和长期来看,英伟达如何判断市场需求信号?
A:近期信号包括采购订单和预测等;中期信号是与前几年相比的基础设施水平和资本支出规模(CapEx);长期信号基于软件已从运行在 CPU 上转变为运行在 GPU 和加速计算系统上的基于机器学习和人工智能的软件,这是软件的未来趋势。目前仅涉足了消费者人工智能、搜索和部分消费者生成式人工智能、广告、推荐系统等软件早期领域,下一波浪潮如企业用代理人工智能、机器人用物理人工智能以及不同地区为自身生态系统构建的主权人工智能才刚刚起步。DeepSeek 和其他创新并没有改变这一观点,反而进一步强化了我们对人工智能领域持续发展和机遇的信念。
Q:在当前一代 Blackwell 解决方案仍在爬坡的情况下,如何理解下一代 Blackwell Ultra 的需求动态?客户和供应链如何管理这两款产品的同时爬坡?团队是否仍能按计划在今年下半年推出 Blackwell Ultra?
A:Blackwell Ultra 将于今年下半年推出。第一代 Blackwell 产品曾出现问题耽误了两个月,但现已完全恢复,成功提升了产量。Blackwell 超按年度计划推进,有新的网络、内存和处理器等。已与所有合作伙伴和客户沟通,他们掌握了必要信息,会共同进行适当过渡。此次从 Blackwell 到 Blackwell Ultra,系统架构相同,过渡相对容易,不像从 Hopper 到 Blackwell,因为当时系统从 NVLink 8 变为 NVLINk72,底盘、系统架构、硬件、电力传输等都要改变,过渡极具挑战性。此外,还与合作伙伴密切合作开发布 Blackwell Ultra 之后的产品,届时会在 GTC 大会上详细介绍。
Q:如何看待客户定制专用集成电路(ASIC)和商用 GPU 之间的平衡?客户是否计划构建同时使用 GPU 和 ASIC 的异构超级集群,还是这些基础设施仍会保持相对独立?
A:英伟达与 ASIC 截然不同,有四个方面的优势。一是架构具有通用性,无论针对自回归模型、基于扩散的模型、基于视觉的模型还是多模态文本模型等,英伟达都表现出色,其软件栈生态丰富,是众多创新和算法的首选目标;二是具备端到端能力,从数据处理、训练数据管理、数据训练、强化学习到推理,在各个环节都表现良好,且架构应用场景广泛,可用于云、本地部署和机器人等;三是性能卓越,数据中心规模和功率通常是固定的,英伟达每瓦性能可达 2 – 8 倍,这能直接转化为收入,因为 AI 工厂可通过生成的 token 直接货币化,高 token 吞吐量对追求营收和快速投资回报的公司极具价值;四是软件栈构建难度大,基于架构的生态系统比两年前复杂 10 倍,将整个生态系统集成到多芯片上并非易事,且英伟达不仅技术更先进、性能更好、软件能力强,部署速度也极快。
Q:如果对其他地区实施监管,美国市场能否弥补缺口?美国市场需求持续激增是否可行?在业务向美国市场转移的情况下,如何保持高速增长?
A:中国市场占比与第四季度及之前季度大致相同,约为出口管制前的 50%,比例基本保持不变。AI 已成为主流软件,广泛应用于各个领域,如配送服务、购物服务、教育、医疗保健、金融服务、气候科技、矿产勘探等。目前正处于从传统计算向 AI 计算转型的初期,过去几十年建立的数据中心和计算机是基于编码、通用计算和 CPU 等,而未来几乎所有软件和服务都将融入 AI,基于机器学习,未来计算机将以 AI 为基础进行加速。没有任何技术或软件工具能像 AI 这样触及全球 GDP 的更大份额,从这个角度看,英伟达仍处于发展初期,有很大的增长空间。
Q:数据中心的企业业务在 1 月季度是否同比增长了 2 倍?如果是,这是否意味着其增长速度比超大规模数据中心更快?超大规模数据中心购买设备用于内部和外部工作负载,能说明一下超大规模数据中心在外部和内部工作负载上的支出分配情况吗?随着新的人工智能工作流应用出现,企业是否会在消费组合中占据更大份额?这是否会影响服务和生态系统的开发?
A:是的,企业业务增长情况与大型云服务提供商(CSPs)非常相似。与 CSPs 合作以及企业自身建设这两方面都发展良好,这两个领域都很重要。
CSPs 约占业务的一半,它们有内部和外部消费。公司与它们密切合作以优化其内部工作负载,因为它们有大量英伟达设备基础设施可利用,且设备在人工智能、视频处理、数据处理等方面具有通用性,使用寿命长、总体拥有成本低。
从长远来看,企业非 CSPs 的增长规模会大于 CSPs。以汽车公司为例,员工使用的智能代理人工智能和软件规划系统等能提高工作效率,汽车制造也需要人工智能,未来每辆车都会是机器人汽车,会收集数据并通过人工智能工厂改进。此外,物理系统需要新型的物理人工智能。使用智能代理人工智能来变革公司内部工作方式才刚刚开始,这是代理人工智能时代的开端,从长远看这部分规模会更大。
Q:临近 2023 年 Hopper 架构在通用人工智能领域出现转折点的两周年,从替换周期角度如何看待已部署的基础设施?像 GB300 或其他情况,何时会出现更新机会?
A:人们仍在使用 Voltus、Pascal 和 Amperes 架构,因为 CUDA 可编程性强,例如当前一个主要用例是数据处理和数据整理。可以利用这些架构进行数据处理、数据整理和基于机器学习的搜索,创建训练数据集用于训练。所有这些架构都与 CUDA 兼容,若已有基础设施,可以将低强度工作负载放在过去安装的设备上,这些设备仍能很好地发挥作用。
Q:英伟达预计财年末毛利率达到 70% 中段水平,二季度毛利率已触底,下半年需每季度提升 200 个基点,且目前尚不明确关税对半导体行业的广泛影响,是什么让公司对下半年毛利率提升的趋势有信心?英伟达在 AI 领域的发展情况以及未来的增长趋势如何?
A:英伟达的毛利率情况较为复杂,在 Blackwell 系统的材料等各方面有很多可以提升毛利率的机会。Blackwell 有许多不同的配置,有助于提升毛利率。在为客户完成一些强劲的业务增长后,公司就可以着手开展提升毛利率的工作,如果能在短期内改善,也会尽快行动。目前关税情况尚不明朗,需进一步了解美国政府的计划,包括时间、范围和幅度等,公司会遵循出口管制和关税相关规定。
目前市场对 Blackwell 的需求非常强劲。AI 正从感知和生成阶段向推理阶段发展,出现了推理时间或测试时间缩放这一全新的缩放定律,推理模型的计算量需求是传统模型的 100 倍。公司目前有三条缩放定律推动 AI 计算需求,除了传统的 AI 缩放定律,还有训练后技能提升(强化学习、微调、模型蒸馏所需计算量远超预训练)以及推理时间缩放和推理(单次查询需求计算量达 100 倍)。Blackwell 平台能轻松实现从预训练、训练后到测试时间缩放的转换,其 FP4 变压器引擎、NVLink 72 扩展架构和新软件技术使处理推理 AI 模型的速度比 Hopper 快 25 倍,且所有配置均已全面投产。公司认为目前处于推理 AI 和推理时间缩放的开端,也是 AI 时代的起点,多模态 AI、企业 AI、主权 AI 和物理 AI 即将到来,2025 年公司将实现强劲增长。未来数据中心将把大部分资本支出用于加速计算和 AI,数据中心将越来越多地成为 AI 工厂,每家公司都会选择租赁或自行运营。
信息来自长桥证券
文章作者:投资之家,如若转载,请注明出处:https://www.moneyhome.com/2661.html