首页 / 实时资讯 / 英伟达业绩会实录全文:DeepSeek是出色创新 推理带来的计算需求巨大

英伟达业绩会实录全文:DeepSeek是出色创新 推理带来的计算需求巨大

盛路资料
盛路资料管理员

财联社2月27日讯(编辑 刘蕊)美东时间周三盘后,英伟达公布了2025财年第四季度财报。

在财报电话会上,英伟达CEO黄仁勋表示,人工智能正在从感知和生成式人工智能(AI)发展到推理AI,DeepSeek-R1点燃了全球的热情,公司对AI推理带来的潜在需求感到兴奋。

以下为财报电话会速记全文(由AI翻译)

英伟达业绩会实录全文:DeepSeek是出色创新 推理带来的计算需求巨大

科莱特·克雷斯(英伟达执行副总裁兼首席财务官):第四季度再次创下纪录。营收达393亿美元,环比增长12%,同比增长78%,超出我们375亿美元的预期。2025财年全年营收为1,305亿美元,同比增长114%。首先看数据中心业务。2025财年数据中心收入为1,152亿美元,较上年翻倍。

第四季度数据中心收入356亿美元,环比增长16%,同比增长93%。随着Blackwell架构开始上量,Hopper 200持续增长。Blackwell第四季度销售额超出预期,我们交付了110亿美元以满足强劲需求,这是公司历史上最快的产品推广速度,规模和速度均前所未有。

Blackwell已全面投产多种配置,我们正快速增加供应并扩大客户采用。第四季度数据中心计算收入环比增长18%,同比翻倍。客户正竞相扩展基础设施以训练下一代尖端模型并解锁更高水平的AI能力。基于Blackwell的集群通常将起步于10万块GPU甚至更多,此类规模的多个基础设施已开始发货。

训练后优化与模型定制推动了对英伟达基础设施和软件的需求,开发者和企业利用微调、强化学习、蒸馏等技术为特定领域用例定制模型。仅Hugging Face平台就托管了超过9万个基于LAMA基础模型的衍生模型。训练后优化与模型定制的规模巨大,其算力需求可能比预训练高多个数量级。我们的推理需求正在加速增长,由测试时扩展和新推理模型(如OpenAI的O3、DeepSeek R1和GROC3)驱动。长时推理AI每任务所需的算力可能比单次推理高出100倍。

Blackwell专为推理AI设计。与Hopper 100相比,Blackwell可将推理AI模型的Token吞吐量提升25倍,成本降低20倍,具有革命性意义。其Transformer引擎专为LLM和混合专家模型优化,NVLink域提供比PCIe Gen5高14倍的吞吐量,确保应对大规模推理的响应时间、吞吐量和成本效率。

各行业公司正利用英伟达全栈推理平台提升性能并降低成本。例如,某公司通过NVIDIA TensorRT将推理吞吐量提升3倍,成本降低66%。Perplexity每月处理4.35亿次查询,借助NVIDIA Triton推理服务器和TensorRT LLM将推理成本减少3倍。微软必应通过NVIDIA TensorRT和加速库,在数十亿图像视觉搜索中实现5倍加速和显著TCO节省。Blackwell在推理领域需求强劲。

许多早期GB200部署专门用于推理,这是新架构首次主攻该场景。Blackwell覆盖从预训练、训练后优化到推理的全流程,支持云、本地和企业的AI需求。CUDA可编程架构加速了所有AI模型及4,400多个应用,确保大规模基础设施投资在快速演进的市场中免于过时。我们的性能和创新速度无可匹敌,过去两年内推理成本已降低200倍。

我们提供最低TCO和最高ROI。英伟达与庞大生态系统(包括590万开发者)的全栈优化持续改善客户经济性。第四季度,大型云服务提供商(CSP)贡献了约半数数据中心收入,其销售额同比增长近2倍。大型CSP是首批部署Blackwell的客户,Azure、GCP、AWS和OCI已在全球云区域部署GB200系统,以满足激增的AI需求。

区域云服务商使用英伟达GPU的收入占比上升,反映全球AI工厂持续建设及对AI推理模型和智能体的需求快速增长。我们推出了基于NVLink交换机和Quantum 2 InfiniBand的10万块GV200集群实例。消费互联网收入同比增长3倍,由生成式AI和深度学习用例扩展驱动,包括推荐系统、视觉语言理解、合成数据生成、搜索和智能体AI。

英伟达CFO科莱特·克雷斯:例如,XAI采用GB200训练和推理其下一代GROG AI模型。Meta的尖端Andromeda广告引擎运行于英伟达Grace Hopper超级芯片,为Instagram、Facebook(NASDAQ: META)等应用提供海量广告服务。Andromeda利用Grace Hopper的高速互连和大内存,将推理吞吐量提升3倍,增强广告个性化,显著提高货币化与ROI。企业收入同比增长近2倍,模型微调、RAG(检索增强生成)和智能体AI工作流需求加速增长。我们推出NVIDIA Llama Numeron模型家族(NIMS),帮助开发者跨客服、欺诈检测、供应链和库存管理等场景创建和部署AI智能体。

领先的AI智能体平台(如SAP和ServiceNow(NYSE: NOW)率先采用新模型。医疗健康领域领军企业IQVIA、Illumina(NASDAQ: ILMN)、Mayo Clinic及ARC研究所正利用英伟达AI加速药物发现、基因组研究,并通过生成式和智能体AI开拓先进医疗服务。随着AI向物理世界扩展,英伟达基础设施和软件平台正被用于机器人及物理AI开发。自动驾驶是早期且规模最大的机器人应用之一,几乎所有AV公司均基于英伟达技术在数据中心或车辆中开发。英伟达汽车业务收入预计本财年增至约50亿美元。

在CES展上,现代汽车集团(OTC: HYMTF)宣布采用英伟达技术加速自动驾驶和机器人开发及智能工厂计划。视觉Transformer、自监督学习、多模态传感器融合和高保真仿真推动自动驾驶突破,未来算力需求将增长10倍。在TEDx上,我们发布了NVIDIA Cosmo世界基础模型平台。正如语言基础模型革新语言AI,Cosmo将通过物理AI革新机器人领域。优步(NYSE: UBER)等机器人及汽车公司率先采用该平台。

从地域看,美国数据中心收入环比增长最为强劲,由BlackRock(NYSE: BLK)初期部署推动。全球多国正构建AI生态系统,算力基础设施需求激增。法国2000亿欧元AI投资和欧盟2000亿欧元“Invest AI”计划预示未来全球AI基础设施建设的规模。目前,中国数据中心收入占比仍低于出口管制前水平。若法规不变,我们预计中国出货量将维持当前比例。中国数据中心市场竞争激烈,我们将继续遵守出口管制并服务客户。

网络收入环比下降3%。与GPU计算系统配套的网络设备占比超75%。我们正从配备InfiniBand的小型NVLink 8向配备SpectrumX的大型NVLink 72过渡。SpectrumX和NVLink交换机收入增长,成为重要新增长点。预计网络业务将在Q1恢复增长。AI需要新型网络:英伟达提供NVLink交换机系统支持纵向扩展计算,Quantum InfiniBand支持HPC超算,SpectrumX支持以太网环境。

SpectrumX优化了AI计算的以太网性能,取得巨大成功。微软Azure、OCI、CoreWeave等公司正基于SpectrumX建设大型AI工厂。首批Stargate数据中心将采用SpectrumX。昨日,思科(NASDAQ: CSCO)宣布将SpectrumX集成至其网络产品组合,帮助企业构建AI基础设施。凭借庞大的企业覆盖和全球触达,思科将把英伟达以太网技术带入各行业。

接下来是游戏和AI PC业务。第四季度游戏收入25亿美元,环比下降22%,同比下降11%。全年收入114亿美元,同比增长9%。假日季需求保持强劲,但Q4出货受供应限制影响。预计Q1供应增加后环比增长强劲。新款GeForce RTX 50系列桌面和笔记本GPU已上市。基于Blackwell架构、第五代Tensor核心和第四代RT核心,最高支持3,400 AI TOP,为玩家、创作者和开发者提供2倍性能飞跃及AI驱动渲染技术(如神经着色器、数字人技术、几何与光照)。

全新DLSS 4通过AI帧生成将帧率提升至多8倍,并首次在实时应用中应用Transformer模型,参数翻倍、算力提升4倍,实现空前视觉保真度。我们还发布了搭载NVIDIA Max Q技术的GeForce Blackwell笔记本GPU,电池续航延长40%。这些笔记本将于3月起由全球顶级制造商推出。专业可视化业务方面,收入5.11亿美元(环比+5%,同比+10%),全年收入19亿美元(同比+21%)。汽车和医疗健康是需求主要驱动力,英伟达技术与生成式AI正在重塑设计、工程和仿真工作负载。

科莱特·克雷斯:例如,ANSYS(NASDAQ: ANSS)、Cadence和西门子(ETR: SIEGn)等领先软件平台正利用NVIDIA RTX工作站。汽车业务收入创纪录达5.7亿美元(环比+27%,同比+103%),全年收入17亿美元(同比+55%)。增长由自动驾驶汽车(包括乘用车和Robotaxi)持续推广驱动。在CES上,全球最大汽车制造商丰田(NYSE: TM)宣布其下一代车型将基于NVIDIA Orin芯片运行安全认证的NVIDIA DRIVE OS。

我们宣布Aurora和大陆集团将规模化部署基于NVIDIA DRIVE 4的无人驾驶卡车。最后,英伟达端到端自动驾驶平台NVIDIA DRIVE Hyperion已通过TÜV SÜD和TÜV Rheinland的行业安全评估,成为首个获得全面第三方认证的AV平台。

转向其他财务数据。GAAP毛利率73%,非GAAP毛利率73.5%,环比下降符合预期(因Blackwell架构初期交付)。正如上季度所述,Blackwell是可定制的AI基础设施,包含多种英伟达自研芯片、网络选项及风冷/液冷数据中心配置。Q4 Blackwell推广超预期,系统可用性提升,为客户提供多种配置。随着Blackwell推广,预计毛利率将维持低70%区间。初期重点为加速Blackwell系统生产以满足客户快速建设基础设施的需求。

全面推广后,我们有多重机会优化成本,毛利率将在本财年末回升至中70%区间。GAAP运营费用环比增长9%,非GAAP运营费用增长11%,反映新产品研发和基础设施成本增加。Q4通过股票回购和现金分红向股东返还81亿美元。展望第一季度,预计总营收430亿美元(±2%)。

受强劲需求推动,预计Blackwell在Q1大幅上量,数据中心和游戏业务均将环比增长。数据中心内部计算和网络业务预计同步增长。GAAP和非GAAP毛利率预计分别为70%和71%(±50个基点)。GAAP和非GAAP运营费用预计约52亿美元和36亿美元。预计2026财年全年运营费用增长至中30%区间。GAAP和非GAAP其他收入预计为4亿美元(不包括非流通股和公开股权证券损益)。GAAP和非GAAP税率预计为17%(±1%),不含离散项目。更多财务细节见CFO评论及IR官网信息(含新型财务信息AI智能体)。

最后提醒即将举行的投资者活动:3月3日参加TD Cowen医疗健康大会(波士顿),3月5日参加摩根士丹利TMT大会(旧金山)。欢迎参加3月17日圣何塞举办的年度GTC大会,黄仁勋将于3月18日发表主题演讲,3月19日举行分析师问答环节。2026财年第一季度财报电话会议定于2025年5月28日。现在开放问答环节,请操作员接入问题。

主持人:我们现在开始接听提问,请提问者开始发言。

会议接线员:第一个问题来自 Cantor Fitzgerald 的 C.J. Muse,请讲。

C.J. Muse(Cantor Fitzgerald 分析师):下午好。感谢您接听我的问题。鉴于强化学习在计算领域展现出巨大潜力,同时训练和推理之间的界限日益模糊,这对未来专门用于推理的集群意味着什么?您认为这将对英伟达及其客户产生怎样的整体影响?谢谢。

黄仁勋(英伟达总裁兼首席执行官):谢谢你,C.J. 如今有多种计算规模定律。一是预训练规模定律,由于我们涉及多模态,且用于推理的数据如今也被用于预训练,该定律将持续发挥作用。二是后训练规模定律,它借助人类反馈强化学习、人工智能反馈强化学习和可验证奖励强化学习。后训练所需的计算量实际上比预训练更高,这是合理的,因为在强化学习过程中,会生成大量合成数据或合成标记。人工智能模型本质上就是通过生成标记来训练其他模型,这就是后训练。第三部分,也就是你提到的,是测试阶段计算、推理、深度思考和推理扩展。

这些概念本质上是相似的,都涉及思维链和搜索。目前生成的标记数量以及所需的推理计算量,已经是早期大语言模型单次示例和单次能力的 100 倍,而这仅仅是个开始。下一代模型的计算量可能会达到数千倍,甚至有望出现基于深度思考、模拟和搜索的模型,其计算量相比现在可能会达到数十万倍乃至数百万倍,这就是我们的未来。问题在于,如何设计这样的架构?有些模型是自回归的,有些是基于扩散的。有时,你希望数据中心采用分布式推理,有时则是集中式推理。因此,很难确定数据中心的最佳配置,这也是英伟达架构广受欢迎的原因。我们能够运行各种模型。

我们擅长训练,目前绝大多数计算实际上用于推理。Blackwell将这一切提升到了新的高度。我们在设计 Blackwell 时考虑到了推理模型,在训练方面,它的性能提升了数倍。真正令人惊叹的是,在深度思考、测试阶段扩展和推理人工智能模型方面,它的速度提升了数十倍,吞吐量提高了 25 倍。因此,Blackwell 在各个方面都表现卓越。当数据中心能让你根据当前是在进行更多预训练、后训练还是扩展推理,来配置和使用数据中心时,我们的架构具有通用性,在各种情况下都易于使用。事实上,我们看到统一架构的集中度比以往任何时候都高得多。

会议接线员:下一个问题来自摩根大通的乔・摩尔(Joe Moore),请讲。

乔・摩尔(摩根大通分析师):早上好。谢谢。我想请您谈谈在国际消费电子展(CES)上提到的 GB200。您提到了机架级系统的复杂性以及面临的挑战,并且在之前的发言中,我们也了解到产品的大量供应情况。目前 GB200 的推广进展如何?在系统层面,除了芯片层面,是否还存在其他瓶颈需要考虑?另外,您对 NVL 72 平台仍保持热情吗?

黄仁勋(英伟达总裁兼首席执行官):我现在比在 CES 时更有热情。原因是自 CES 以来,我们的出货量大幅增加。我们有大约 350 家工厂,生产 Grace Blackwell 机架中的 150 万个组件。是的,这极其复杂,但我们成功且出色地扩大了 Grace Blackwell 的生产规模,上个季度带来了约 110 亿美元的收入。由于需求非常高,客户急切地希望获得 Blackwell 系统,我们还需要继续扩大生产规模。

您可能在网上看到了不少关于 Grace Blackwell 系统上线的庆祝消息。当然,我们为自己的工程、设计和软件团队配备了大量的 Grace Blackwell 系统。CoreWeave 公司已公开宣布其 Grace Blackwell 系统成功上线,微软和 OpenAI 也是如此。现在,越来越多的系统开始上线。所以,我认为这个问题的答案是,我们所做的事情并不容易,但我们进展得很顺利,所有合作伙伴也都进展良好。

会议接线员:下一个问题来自美银证券的维韦克・阿亚(Vivek Arya),请讲。

维韦克・阿亚(美银证券分析师):感谢您接听我的问题。我想确认一下,第一季度是毛利率的谷底吗?另外,黄仁勋先生,我的问题是,您基于哪些因素,对强劲的需求能够持续到明年充满信心?DeepSeek 公司及其推出的创新成果,是否在任何方面改变了您的看法?

科莱特・克雷斯(英伟达执行副总裁兼首席财务官):我先回答关于毛利率的问题。在 Blackwell 的推广过程中,我们的毛利率将维持在 70% 出头。目前,我们专注于加快生产速度,确保尽快为客户供货。当 Blackwell 全面实现量产,我们就能优化成本,提高毛利率。预计今年晚些时候,毛利率有望达到 70% 中期水平。

英伟达业绩会实录全文:DeepSeek是出色创新 推理带来的计算需求巨大

如您所知,黄仁勋先生谈到了系统的复杂性,这些系统在某些情况下是可定制的,有多种网络选项,并且有液冷和水冷等不同配置。我们知道,未来有机会进一步提高毛利率。但目前,我们的重点是完成生产并尽快交付给客户。

黄仁勋(英伟达总裁兼首席执行官):维韦克,我们了解一些情况。我们对数据中心的资本投资规模有比较清晰的认识。我们知道,未来绝大多数软件将基于机器学习开发。因此,加速计算、生成式人工智能和推理人工智能将成为数据中心理想的架构选择。当然,我们也掌握了主要合作伙伴的预测和计划。

此外,有许多创新且令人兴奋的初创公司仍在不断涌现,它们为人工智能的下一次突破带来了新机遇,无论是智能体人工智能、推理人工智能,还是物理人工智能领域。初创公司的数量依然可观,而且每家都需要大量的计算基础设施。所以,无论是短期信号,如订单和预测等;中期信号,如与往年相比的基础设施水平和资本支出规模;还是长期信号,即从根本上软件已经从在 CPU 上运行的手工编码,转变为在 GPU 和加速计算系统上运行的基于机器学习和人工智能的软件。

我们很清楚,这就是软件的未来。换个角度看,我们目前主要涉足了消费者领域、人工智能搜索以及部分消费者生成式人工智能,还有广告和推荐系统等软件应用的早期领域。下一波浪潮即将到来,包括用于企业的智能体人工智能、用于机器人的物理人工智能,以及不同地区为构建自身生态系统而发展的主权人工智能。这些领域都刚刚起步,我们能够看到它们的发展潜力。显然,我们处于这一发展的核心位置,能看到各个领域都在积极发展,这些变革必将发生。所以,从短期、中期到长期来看,前景都很乐观。

会议接线员:下一个问题来自摩根大通的哈兰・苏尔(Harlan Sur),请讲。

哈兰・苏尔(摩根大通分析师):下午好。感谢您接听我的问题。英伟达下一代 Blackwall Ultra 预计于今年下半年推出,符合团队的年度产品发布节奏。黄仁勋先生,鉴于当前一代 Blackwell 解决方案仍在扩大生产规模,您能谈谈 Blackwall Ultra 的需求动态吗?您的客户和供应链将如何应对这两款产品同时扩大生产的情况?团队是否仍按计划在今年下半年推出 Blackwall Ultra?

黄仁勋(英伟达总裁兼首席执行官):是的,Blackwell Ultra 将于下半年推出。如您所知,第一代 Blackwell 的推出曾遇到一些波折,可能让我们推迟了几个月,但我们当然已经完全恢复。团队以惊人的速度恢复,所有供应链合作伙伴和众多人员都给予了极大帮助。现在,我们已成功扩大 Blackwell 的生产规模。但这并不影响后续产品的推进,新产品按年度节奏推出,Blackwell Ultra 将配备新的网络、内存和处理器,一切都在顺利推进。

我们一直与所有合作伙伴和客户沟通规划,他们掌握了所有必要信息,我们将与各方合作,确保顺利过渡。这次从 Blackwell 到 Blackwell Ultra 的过渡,系统架构完全相同。从 Hopper 到 Blackwell 的转变要困难得多,因为我们从基于 NVLink 8 的系统升级到了基于 NVLink 72 的系统,机箱、系统架构、硬件和电源供应等都需要改变,这是一次极具挑战性的过渡。但下一次过渡会很顺利,Blackwall Ultra 将无缝衔接。我们也已经向所有合作伙伴透露了后续产品的信息,并与其紧密合作,后续产品名为 Verarubin。

所有合作伙伴都在加快了解这一过渡并做好准备。再次强调,我们将实现巨大的飞跃。欢迎参加英伟达技术大会(GTC),届时我会详细介绍 Blackwell Ultra、Verarubin,以及下一款令人兴奋的新产品。请务必参加 GTC。

会议接线员:下一个问题来自瑞银集团的蒂莫西・阿库里(Timothy Arcuri),请讲。

蒂莫西・阿库里(瑞银集团分析师):非常感谢。黄仁勋先生,我们经常听到关于定制专用集成电路(ASIC)的消息。您能谈谈定制 ASIC 和商用 GPU 之间的平衡关系吗?我们听说一些异构超级集群会同时使用 GPU 和 ASIC,客户有计划构建这样的基础设施吗?还是这两种基础设施仍会保持明显差异?谢谢。

黄仁勋(英伟达总裁兼首席执行官):在某些方面,我们的产品与 ASIC 有很大不同,但在一些领域也有交集。我们的产品在多个方面具有独特性。其一,英伟达的架构具有通用性。无论你针对自回归模型、扩散模型、视觉模型、多模态模型还是文本模型进行优化,我们的产品都能出色应对。这是因为我们的架构灵活,软件堆栈丰富,生态系统完善,是大多数创新算法的首选目标。

所以,从本质上讲,我们的产品通用性强,而非功能单一。其二,我们的产品实现了端到端的优化,涵盖数据处理、训练数据整理、数据训练,当然还有用于后训练的强化学习,一直到测试阶段扩展的推理。因此,我们的产品通用、端到端,且应用广泛。我们的产品不仅用于云计算,还可用于本地部署,甚至机器人领域。对于任何新成立的公司而言,我们的架构更容易获取,是理想的初始选择。

其三,我们产品的性能提升速度极快。要知道,数据中心的规模和功率通常是固定的。如果我们产品的每瓦特性能提升 2 倍、4 倍甚至 8 倍(这并不罕见),这将直接转化为收入的增长。例如,一个 100 兆瓦的数据中心,如果其性能或吞吐量提高 4 倍或 8 倍,那么该数据中心的收入也会相应提高 8 倍。与过去的数据中心不同,人工智能工厂可以通过生成的标记直接实现盈利。因此,我们架构的标记吞吐量极快,对于所有为了盈利和快速获得投资回报而构建这些设施的公司来说,具有极高的价值。所以,我认为第三个原因是性能。最后,软件堆栈的构建难度极大。

构建 ASIC 与我们的工作并无本质区别,都需要开发新的架构。如今,我们架构之上的生态系统比两年前复杂了 10 倍,这一点显而易见,因为基于该架构开发的软件数量呈指数级增长,且人工智能发展迅速。要在多个芯片上构建完整的生态系统非常困难。

综上所述,这就是几个主要原因。最后我想说,芯片设计完成并不意味着就能投入使用,这种情况屡见不鲜。许多芯片被制造出来,但到了实际应用阶段,需要做出商业决策。这个决策涉及将新的引擎或处理器应用于规模、功率和时间都有限的人工智能工厂。我们的技术不仅更先进、性能更优,软件能力也更强。非常重要的是,我们的部署速度极快。大家都清楚,这并非易事。所以,我们表现出色、能够胜出,是有诸多原因的。

会议接线员:下一个问题来自 Melius Research 的本・赖茨,请讲。

本・赖茨(Melius Research 分析师):好的。嗨,我是本・赖茨。非常感谢能提问。黄仁勋先生,这是一个与地域相关的问题。您之前很好地解释了需求强劲的一些潜在因素。不过,美国地区的营收环比增长了大约 50 亿美元。我想大家担心的是,如果对其他地区实施监管措施,美国市场能否弥补这一缺口。我想知道,在接下来的这一年里,如果美国市场的这种增长趋势持续下去,这是否足以支撑公司的发展?如果这种业务向美国市场转移的情况是您预期增长率的基础,那么在这种情况下,您如何保持如此快速的增长呢?从您给出的业绩指引来看,中国市场的营收可能会环比增长。所以想请您分析一下这种市场动态,或许科莱特也可以发表一下看法?非常感谢。

黄仁勋(英伟达总裁兼首席执行官):中国市场的营收占比与第四季度以及之前几个季度大致相同,大约是出口管制前的一半,但占比基本保持稳定。说到地域市场,关键在于人工智能本质上是一种软件,是现代软件。它是令人惊叹的现代软件,但终究还是软件,而且人工智能已经成为主流技术。人工智能在各地的配送服务、购物服务中都有应用。比方说,你购买的牛奶被送到家,这一过程中就用到了人工智能。几乎所有的消费服务都以人工智能为核心。每个学生都会使用人工智能来辅助学习。医疗服务领域会用到人工智能,金融服务也离不开它。没有哪家金融科技公司会不使用人工智能,所有金融科技公司都会采用。气候科技公司也在利用人工智能,如今矿产勘探也开始借助人工智能技术。在高等教育领域,每所大学都在使用人工智能。所以,可以说人工智能已经融入到各个应用领域,成为主流技术。我们当然希望这项技术能够持续、安全地发展,并为社会带来积极影响。我坚信,我们正处于这一新技术转型的初期阶段。

我所说的初期是指,回顾过去几十年,我们构建了大量的数据中心和计算机,它们是为手工编码、通用计算以及 CPU 计算等需求而设计的。展望未来,可以说几乎所有软件都将融入人工智能。所有软件和服务最终都将基于机器学习,数据飞轮效应将成为提升软件和服务质量的关键因素,未来的计算机也将是加速计算的计算机,将基于人工智能技术。我们才刚刚踏上这一旅程两年,而现代化计算机的建设历经了几十年。所以我很确定,我们正处于这个新时代的开端。最后,没有任何一项技术能像人工智能这样,对全球 GDP 产生如此广泛的影响,也没有任何一款软件工具能做到这一点。如今,人工智能成为了一款能够影响全球 GDP 更大份额的软件工具,这在历史上是前所未有的。因此,我们在考虑增长问题,以及评估业务规模大小时,都应该从这个角度出发。当你从这个视角审视时,就会发现我们才刚刚起步。

会议接线员:下一个问题来自 Evercore ISI 的马克・卢帕西斯,请讲。

马克・马塔帕萨斯( Evercore ISI):我有一个需要确认的问题和一个新问题。科莱特,我想确认一下,您是否提到1月份数据中心业务中的企业部门同比增长了2倍?如果是这样,这是否意味着其增长速度比超大规模数据中心客户更快?黄仁勋先生,我的问题是,超大规模数据中心客户是你们产品的最大买家,他们购买设备既用于内部工作负载,也用于外部工作负载(即企业使用的云服务)。那么,您能否介绍一下超大规模数据中心客户在这两种工作负载上的支出分配情况?随着新的人工智能工作负载和应用不断涌现,您认为企业在这种消费结构中的占比会增加吗?这又将如何影响你们对生态系统的开发和服务?谢谢。

科莱特・克雷斯(英伟达执行副总裁兼首席财务官):感谢您关于企业业务的问题。是的,企业部门业务增长了 2 倍,与我们在大型云计算服务提供商(CSPs)业务中的增长情况类似。请记住,这两个领域都很重要。与 CSPs 合作,既可能涉及大语言模型的开发,也可能用于他们自身的推理工作。但也要注意,企业客户既会通过 CSPs 使用我们的产品,也会自行构建相关设施。这两个领域都发展得非常好。

黄仁勋(英伟达总裁兼首席执行官):CSPs 的业务约占我们总业务的一半。如你所说,CSPs 的设备用于内部和外部消费。我们当然会与他们密切合作,优化其内部工作负载,因为他们拥有大量英伟达设备,可以充分利用这些资源。我们的产品一方面可用于人工智能,另一方面可用于视频处理、数据处理(如 Spark 相关应用),具有很强的通用性。因此,我们基础设施的使用寿命更长,总体拥有成本(TCO)也更低。那么,关于未来非 CSPs 企业业务的增长情况,也就是你提到的这部分,我认为从长期来看,其规模会大得多。原因在于,如果观察当今的计算机行业,未被充分服务的领域主要集中在工业领域。

举个例子,当我们提到企业时,以汽车公司为例,因为汽车公司既涉及软件业务,也涉及硬件业务。对于汽车公司来说,其员工相关的业务可归为企业业务范畴。智能体人工智能、软件规划系统和工具,在 GTC 大会上我们会分享一些令人兴奋的成果,这些智能体系统可提高员工的工作效率,辅助他们进行设计、营销、规划和运营。这就是智能体人工智能的应用。另一方面,汽车制造也需要人工智能。汽车需要人工智能系统来训练,以管理庞大的车队。如今,全球道路上有 10 亿辆汽车,未来某一天,这 10 亿辆汽车都可能变成自动驾驶汽车。它们将收集数据,并通过人工智能工厂进行优化。现在汽车公司有汽车工厂,未来它们将拥有汽车工厂和人工智能工厂。而汽车内部本身也是一个机器人系统。

由此可见,这里涉及到三种计算机。一种是辅助人员工作的计算机,一种是为机械设备构建人工智能的计算机(这里的机械设备可以是拖拉机、割草机、如今正在研发的人形机器人、建筑物、仓库等)。这些物理系统需要一种新型人工智能,我们称之为物理人工智能。它们不仅要理解文字和语言的含义,还需要理解世界的物理规律,比如摩擦力、惯性、物体恒存性和因果关系等,这些对我们来说是常识,但人工智能却需要学习这些物理效应。所以,我们把这种人工智能称为物理人工智能。利用智能体人工智能来彻底改变企业内部的工作方式,这才刚刚起步。现在是智能体人工智能时代的开端,很多人都在讨论这个话题,我们也取得了一些很不错的进展。在智能体人工智能之后,还有物理人工智能,再之后是机器人系统。所以,这三种计算机都是全新的领域。我感觉从长远来看,这部分业务规模会远超其他业务,这也在情理之中。毕竟全球 GDP 主要由重工业、工业企业以及为这些企业提供服务的公司贡献。

会议接线员:下一个问题来自富国银行的亚伦・拉克,请讲。

亚伦・拉克:(富国银行分析师)。黄仁勋先生,如今距离 2023 年 Hopper 架构带来的变革以及生成式人工智能的兴起即将满两年,展望未来的发展路线图,从替换周期的角度来看,您如何看待已部署的基础设施?比如,GB300 或者 Ruben 周期是否会带来一些设备更新的机会?我很好奇您对这个问题的看法。

黄仁勋(英伟达总裁兼首席执行官):感谢你的提问。首先,现在还有人在使用 Volta、Pascal 和 Ampere 架构的产品。原因在于,CUDA 的可编程性很强,有很多用途,目前其中一个主要应用场景是数据处理和数据整理。比如说,你发现人工智能模型在某方面表现不佳,就把这个情况输入视觉语言模型。假设是汽车相关的问题,将这个情况输入视觉语言模型后,模型会分析并反馈 “这是发生的情况,我在这方面表现不太好”。然后,你把这个反馈当作提示信息,输入到另一个人工智能模型中,让它在你的整个数据链中查找类似情况。接着,利用人工智能进行域随机化处理,生成大量其他示例。基于这些示例,你就可以训练模型。所以,你可以用 Ampere 架构的产品进行数据处理、数据整理以及基于机器学习的搜索工作。然后创建训练数据集,再将其输入到 Hopper 系统中进行训练。这些架构都与 CUDA 兼容,因此可以相互配合使用。如果你已经有了现有基础设施,那么可以把负载较低的任务交给过去安装的设备来处理。我们所有的 CPU 都得到了充分利用。

会议接线员:我们还有时间回答最后一个问题。这个问题来自花旗银行的阿蒂夫・马利克,请讲。

阿蒂夫・马利克(花旗银行分析师):你好。感谢您接听我的问题。科莱特,我有一个关于毛利率的后续问题。我知道影响因素很多,比如 BlackBull 的良品率、ELink 72 和以太网的配置比例等。之前您在回答 4 月份是否是毛利率谷底这个问题时有所保留。但要在财年结束时达到您预期的75%左右毛利率水平,下半年每个季度毛利率需要提高200个基点。而且目前我们还不太清楚关税对整个半导体行业会产生怎样的影响。那么,是什么让您对下半年毛利率的提升有信心呢?

科莱特・克雷斯(英伟达执行副总裁兼首席财务官):感谢你的问题。在Blackwell系统中,毛利率受到材料等诸多因素的影响,情况比较复杂。但从长期来看,我们有很多机会通过优化各个环节来提高毛利率。要知道,Blackwell 有多种不同的配置,这也有助于我们提升毛利率。所以,在为客户完成部分大规模生产爬坡工作后,我们就可以开展很多优化工作。如果可以的话,我们可能会尽早开始。如果短期内有提升毛利率的机会,我们也会抓住。目前,关税方面还存在一些不确定性。在我们进一步了解美国政府的计划,包括实施时间、涉及范围和税率等之前,关税的影响还是未知的。所以现在我们还在等待。当然,我们始终会遵守出口管制和关税相关规定。

会议接线员:女士们、先生们,问答环节到此结束。很抱歉。

科莱特・克雷斯(英伟达执行副总裁兼首席财务官):谢谢。我们请黄仁勋先生再讲几句。

黄仁勋(英伟达总裁兼首席执行官):我感谢大家。感谢你,科莱特。

对 Blackwel的需求非常强劲。人工智能正在从感知和生成式人工智能向推理式人工智能发展。随着推理式人工智能的发展,我们发现了另一个规模定律,即推理时间或测试时间规模定律。计算量越大,模型思考得越深入,给出的答案也就越智能。像 OpenAI、Broad3、DeepSeek R1 等模型都是应用推理时间规模定律的推理模型。推理模型的计算量可能是其他模型的 100 倍。未来的推理模型计算量会更大。DeepSeek R1 引发了全球关注。这是一项出色的创新成果,更重要的是,它开源了一个世界级的推理人工智能模型。几乎每位人工智能开发者都在应用 R1 模型,或者类似 R1 的思维链和强化学习技术,来提升自己模型的性能。

正如我之前提到的,现在有三种规模定律推动着人工智能计算的需求增长。传统的人工智能规模定律依然存在,基础模型通过多模态技术不断强化,预训练也在持续发展。但这已经不够了。我们还有另外两个影响规模的因素。一是后训练规模,强化学习、微调、模型蒸馏等后训练环节所需的计算量比单独的预训练要高出几个数量级。二是推理时间规模和推理,一次查询可能需要 100 倍的计算量。我们推出 Blackwell 就是为了满足这些需求,它是一个单一平台,可以轻松在预训练、后训练和测试时间规模之间切换。

Blackwell 的 FP4 变压器引擎、NVLink 72 扩展架构和新的软件技术,使其处理推理人工智能模型的速度比 Hopper 快 25 倍。所有配置的 Blackwell 都已全面投产。每个 Grace Blackwell NVLink72 机架都是一项工程奇迹,由近 10 万名工厂工人在 350 个制造地点生产出 150 万个组件。

人工智能正在飞速发展。我们正处于推理式人工智能和推理时间规模发展的初期,但这仅仅是人工智能时代的开端。多模态人工智能、企业人工智能、主权人工智能和物理人工智能即将到来。2025 年我们将实现强劲增长。

展望未来,数据中心会将大部分资本支出用于加速计算和人工智能领域。数据中心将越来越多地转变为人工智能工厂,每家公司都会拥有自己的数据中心,无论是租赁的还是自建的。感谢大家今天参加会议。几周后欢迎大家参加 GTC 大会,我们将在会上讨论 Blackwell Ultra、Rubin 以及其他新的计算、网络、推理人工智能、物理人工智能产品等更多内容。谢谢。

发表评论

最新文章