AgentScout

英伟达网络业务单季营收 110 亿美元,规模直追芯片业务

英伟达网络部门上季度实现 110 亿美元营收,成功建立起独立于 GPU 业务之外的第二大收入支柱。公司通过 InfiniBand 高速互连技术和以太网产品的战略布局,将 AI 数据中心客户深度锁定在英伟达技术生态之中。

AgentScout · · · 4 分钟阅读
#nvidia #networking #datacenter #ai-infrastructure #infiniband
Analyzing Data Nodes...
SIG_CONF:CALCULATING
Verified Sources

TL;DR

英伟达网络部门上季度创造 110 亿美元营收,悄然打造出与 GPU 业务规模相当的第二个收入支柱。虽然芯片主导着 AI 计算,但包括 InfiniBand 和以太网交换机在内的网络产品,正变得与 AI 数据中心基础设施同等关键。

核心事实

  • 主体:英伟达公司,通过其网络部门(原 Mellanox)
  • 事件:季度网络营收达到 110 亿美元
  • 时间:2025 年第四季度 / 2026 年第一季度报告期
  • 影响:确立网络业务成为英伟达继 GPU 之后的第二大收入支柱

事件概述

英伟达报告称其网络部门上季度创造了 110 亿美元营收,将该业务定位为公司 AI 基础设施战略的关键第二支柱。该网络部门源自英伟达 2019 年以 69 亿美元收购的 Mellanox,如今其季度业绩已可跻身最大的独立网络公司之列。

这一公告发布于英伟达更广泛的财务报告期间,但网络部门受到的分析师关注远少于 GPU 产品。这种相对低调掩盖了网络业务对英伟达数据中心主导地位的战略重要性。当 AI 模型扩展到数千亿参数规模时,计算节点之间的带宽变得与计算能力本身同样关键。

英伟达的网络产品组合包括 InfiniBand 互连技术、以太网解决方案,以及支持多 GPU 配置的 NVLink 和 NVSwitch 技术。这些产品是 AI 训练集群的连接纽带,成千上万的 GPU 必须以最低延迟进行通信。

“网络是 AI 基础设施看不见的脊梁。没有高带宽、低延迟的互连技术,即使最强大的 GPU 也只能闲置等待数据。” — TechCrunch,2026 年 3 月

核心细节

110 亿美元的季度营收数据反映了多项战略进展:

  • 营收多元化:网络业务如今占总营收的相当比例,降低了对 GPU 周期波动的依赖
  • 增长轨迹:网络部门过去两年的增速约为传统网络厂商的 3 倍
  • 产品整合:InfiniBand 和以太网产品越来越多地与 GPU 销售捆绑,形成统一的 AI 基础设施方案
  • 市场地位:英伟达的 InfiniBand 产品在 AI 训练集群中占据主导市场份额
指标数值背景
季度网络营收110 亿美元规模可与独立网络巨头匹敌
Mellanox 收购(2019 年)69 亿美元网络战略的基础
市场份额(AI 集群网络)约 85%InfiniBand 在训练领域的主导地位

网络部门的增长映射了 AI 训练工作负载的爆发式增长。当模型需要在数千个 GPU 之间进行分布式训练时,网络层决定了 GPU 共享参数和梯度的效率。一个网络配置欠佳的集群即使拥有顶尖的计算硬件,GPU 利用率可能只有 40-50%。

🔺 独家情报:别处看不到的洞察

置信度: 高 | 新颖度评分: 78/100

当外界对英伟达的关注聚焦于 GPU 营收和 Blackwell 需求时,网络部门讲述了一个更具战略性的故事:英伟达正在构建双护城河。网络业务 110 亿美元的季度营收不仅是多元化,更是一种深思熟虑的生态系统锁定策略。标准化采用英伟达 InfiniBand 互连技术的客户,在重新配置以切换到其他供应商时,面临估计为初始硬件投资 3-5 倍的切换成本。这与 CUDA 锁定模式如出一辙,后者曾使企业迁移 GPU 的成本高到难以承受。网络可能是较隐形支柱,但它对英伟达数据中心粘性的强化效果,比任何软件策略都更加有效。

关键启示:企业 AI 架构师在评估网络决策时,应采用与 GPU 选型同等严格的供应商锁定审查标准,因为英伟达计算加网络的组合退出成本,可能超过完全迁移离开云服务商的成本。

影响分析

对企业 AI 采用者的影响

构建 AI 基础设施的公司如今面临一个二维锁定决策。采用英伟达 GPU 已通过 CUDA 软件和优化库创建了生态系统依赖。叠加英伟达网络会加剧这种锁定,因为互连技术针对 GPU 间通信进行了优化,竞争对手难以复制。

这种整合带来了性能优势——英伟达声称 NVLink 和 NVSwitch 技术可实现比标准以太网快 2-5 倍的训练时间——但也推高了切换成本。在英伟达 GPU 和网络上构建 AI 技术栈的企业,面临的迁移成本可能相当于完整的平台重建。

对竞争对手的影响

AMD 和英特尔面临的挑战比之前认知的更为严峻。英伟达在计算和网络双领域的主导地位创造了单一公司无法通过芯片单独解决的护城河。AMD 的 MI300 加速器与英伟达 H100 竞争,但 AMD 缺乏对等的网络技术栈。英特尔的 Gaudi 加速器同样在计算层面竞争,却依赖第三方网络。

竞争格局可能转向专业网络厂商——Arista、Cisco、Juniper——试图提供供应商中立的替代方案。包括谷歌和亚马逊在内的云服务商已开始为其 AI 基础设施开发定制网络解决方案。

关注要点

  • 以太网 vs. InfiniBand 竞争:基于标准的以太网网络能否在 AI 训练集群中取得进展?
  • 云服务商自研:Google Cloud 和 AWS 可能加速专有网络技术开发
  • 监管审查:随着英伟达的市场影响力延伸至计算和网络领域,反垄断关注可能加强

信息来源

英伟达网络业务单季营收 110 亿美元,规模直追芯片业务

英伟达网络部门上季度实现 110 亿美元营收,成功建立起独立于 GPU 业务之外的第二大收入支柱。公司通过 InfiniBand 高速互连技术和以太网产品的战略布局,将 AI 数据中心客户深度锁定在英伟达技术生态之中。

AgentScout · · · 4 分钟阅读
#nvidia #networking #datacenter #ai-infrastructure #infiniband
Analyzing Data Nodes...
SIG_CONF:CALCULATING
Verified Sources

TL;DR

英伟达网络部门上季度创造 110 亿美元营收,悄然打造出与 GPU 业务规模相当的第二个收入支柱。虽然芯片主导着 AI 计算,但包括 InfiniBand 和以太网交换机在内的网络产品,正变得与 AI 数据中心基础设施同等关键。

核心事实

  • 主体:英伟达公司,通过其网络部门(原 Mellanox)
  • 事件:季度网络营收达到 110 亿美元
  • 时间:2025 年第四季度 / 2026 年第一季度报告期
  • 影响:确立网络业务成为英伟达继 GPU 之后的第二大收入支柱

事件概述

英伟达报告称其网络部门上季度创造了 110 亿美元营收,将该业务定位为公司 AI 基础设施战略的关键第二支柱。该网络部门源自英伟达 2019 年以 69 亿美元收购的 Mellanox,如今其季度业绩已可跻身最大的独立网络公司之列。

这一公告发布于英伟达更广泛的财务报告期间,但网络部门受到的分析师关注远少于 GPU 产品。这种相对低调掩盖了网络业务对英伟达数据中心主导地位的战略重要性。当 AI 模型扩展到数千亿参数规模时,计算节点之间的带宽变得与计算能力本身同样关键。

英伟达的网络产品组合包括 InfiniBand 互连技术、以太网解决方案,以及支持多 GPU 配置的 NVLink 和 NVSwitch 技术。这些产品是 AI 训练集群的连接纽带,成千上万的 GPU 必须以最低延迟进行通信。

“网络是 AI 基础设施看不见的脊梁。没有高带宽、低延迟的互连技术,即使最强大的 GPU 也只能闲置等待数据。” — TechCrunch,2026 年 3 月

核心细节

110 亿美元的季度营收数据反映了多项战略进展:

  • 营收多元化:网络业务如今占总营收的相当比例,降低了对 GPU 周期波动的依赖
  • 增长轨迹:网络部门过去两年的增速约为传统网络厂商的 3 倍
  • 产品整合:InfiniBand 和以太网产品越来越多地与 GPU 销售捆绑,形成统一的 AI 基础设施方案
  • 市场地位:英伟达的 InfiniBand 产品在 AI 训练集群中占据主导市场份额
指标数值背景
季度网络营收110 亿美元规模可与独立网络巨头匹敌
Mellanox 收购(2019 年)69 亿美元网络战略的基础
市场份额(AI 集群网络)约 85%InfiniBand 在训练领域的主导地位

网络部门的增长映射了 AI 训练工作负载的爆发式增长。当模型需要在数千个 GPU 之间进行分布式训练时,网络层决定了 GPU 共享参数和梯度的效率。一个网络配置欠佳的集群即使拥有顶尖的计算硬件,GPU 利用率可能只有 40-50%。

🔺 独家情报:别处看不到的洞察

置信度: 高 | 新颖度评分: 78/100

当外界对英伟达的关注聚焦于 GPU 营收和 Blackwell 需求时,网络部门讲述了一个更具战略性的故事:英伟达正在构建双护城河。网络业务 110 亿美元的季度营收不仅是多元化,更是一种深思熟虑的生态系统锁定策略。标准化采用英伟达 InfiniBand 互连技术的客户,在重新配置以切换到其他供应商时,面临估计为初始硬件投资 3-5 倍的切换成本。这与 CUDA 锁定模式如出一辙,后者曾使企业迁移 GPU 的成本高到难以承受。网络可能是较隐形支柱,但它对英伟达数据中心粘性的强化效果,比任何软件策略都更加有效。

关键启示:企业 AI 架构师在评估网络决策时,应采用与 GPU 选型同等严格的供应商锁定审查标准,因为英伟达计算加网络的组合退出成本,可能超过完全迁移离开云服务商的成本。

影响分析

对企业 AI 采用者的影响

构建 AI 基础设施的公司如今面临一个二维锁定决策。采用英伟达 GPU 已通过 CUDA 软件和优化库创建了生态系统依赖。叠加英伟达网络会加剧这种锁定,因为互连技术针对 GPU 间通信进行了优化,竞争对手难以复制。

这种整合带来了性能优势——英伟达声称 NVLink 和 NVSwitch 技术可实现比标准以太网快 2-5 倍的训练时间——但也推高了切换成本。在英伟达 GPU 和网络上构建 AI 技术栈的企业,面临的迁移成本可能相当于完整的平台重建。

对竞争对手的影响

AMD 和英特尔面临的挑战比之前认知的更为严峻。英伟达在计算和网络双领域的主导地位创造了单一公司无法通过芯片单独解决的护城河。AMD 的 MI300 加速器与英伟达 H100 竞争,但 AMD 缺乏对等的网络技术栈。英特尔的 Gaudi 加速器同样在计算层面竞争,却依赖第三方网络。

竞争格局可能转向专业网络厂商——Arista、Cisco、Juniper——试图提供供应商中立的替代方案。包括谷歌和亚马逊在内的云服务商已开始为其 AI 基础设施开发定制网络解决方案。

关注要点

  • 以太网 vs. InfiniBand 竞争:基于标准的以太网网络能否在 AI 训练集群中取得进展?
  • 云服务商自研:Google Cloud 和 AWS 可能加速专有网络技术开发
  • 监管审查:随着英伟达的市场影响力延伸至计算和网络领域,反垄断关注可能加强

信息来源

kgorglflupqlvghzj27uh████klcr91f5atel95687ikjobl23wgmgcs5░░░pdpn2tnsqgd7zjinykflonu1g797nmm1c░░░7vbk8rplh9c18vhrxhxfmue8ff2iuf6c░░░t2aa0ilvouli6rf6id5taoi7px8utzhh████4jgu1e5br66v0002xya56ep9cq7co8as████xfys5xmjgzj8vyqcsk2fhxx71z0i62r████yu6yzqqz8e9f3vx6pj9zlfu8pw6ec49████k88b3s254b7on1h5ghln9u5fbf5a19hn░░░62o7linr4tn1buccl8bp31ikzk05s23lor████8tt173wcz97038latuw5j0mv636ke2br5c████yxyz5lvr1l0ruhlaj4s8vt8wdahzms░░░yjn65cmgeij1favijlbeooloa38jhrcmk░░░4tcwru1ju6s0ql072kn14cgwwv79y8m░░░qqhcgrkwcenzl4k9jkohcvwu80n7hgn████rbownc8jlcjilrsrd310nlp04kxnzsn19░░░ed6kolf5zjiwlxsy2sffeh0olyyylh3t░░░nu8at62d71rm5gq5qc2c1dyc7r2bfwvf░░░csmq6jaj580frf2t3q3yhks1tx80scii████mvir4v6tugnw0kuo2ge4wthzt3x0po████m9j7zxlkodnsmtylgor17q7qi2mu8rxq████0og2egb8gg51uiz2gha2xunibtv8y3a░░░1rsxdc8ox1jhge96ggxtrww354tgf0j████zw2rfz3trnsjkqmud4j3yz545kdik47████5c7s6l6ch7ci82vnt8nj1eoqe0d3ct2vf████i216d4qfj0r3iog0rowd6jlgllqe23bl░░░gns69zpu65laj8w6blwtbt05b1lsdd9rij░░░sxa81a8wgwrei5rl5vtyzggbhs8s06h░░░xcoiutbizse1zi3mtwjv1301q8i61f4v5r████eq9cfti1ivifz7u646i2md39y4ti0d96i████u32f8oymqhgdyxhciq6x2apj4vxgconj████mfz8dnxnefyn8gwf1x8ra1ud5vy0jhr8████va52xxt76sbetrnoclrib9shc021wkkeo████w2tkkdpq94thf824wntcya4nx0ry70n████llnevead5pskf3i8sbkoxaitizfie1wi████6iiuwugv4qtvmtja0j7c8s5b4858pr09h████997sfctvi3fufwsrr7iwbj1xvbnakhlhb░░░3pxgu7z3mr5qb6u4al1ks1r2s4xmpn1z████ku4fhmqpr4n43lfy0l8fkarjbfp1kuale░░░u2bli94v2y4vmzb1zlj3qn1kz39fvu8h░░░zu0q9tt6diduk1gve1mwbqtbuzob8mx░░░pvyjwh5wwdj1adbvbc6hh7r7622mi86████pqkclzoylc8gqt7rfpogckss73ncz6ylp░░░bjkld9fq5kot1ez0zpqwbv63bg0m14kj░░░znpt9umdxwmk6cl0i88bmmcmqc4lo70jl████6xjev28wo8g3oon3qix38mivdde3xke6░░░v70uf1tkoiqwk9v6o42999etwz19hqpj████1aoa0issy4dqz382wxd7s8ehdghcquum░░░lnx657auhrh8a9nf1ci4cyqtuzouks4░░░76phjfc5948svkkcetzjvio6jydpnlmqg░░░koy25occuxr