2024-6-26 10:38

大模型公司对标系列之七:英伟达公司

00:00 00:00

公司档案

英伟达是全球AI算力龙头,成立于1993年,专注于GPU的研发与制造,并由传统GPU供应商转型升级为平台化企业,成为人工智能时代软硬件一体化AI 解决方案领导者。英伟达2023年全年实现营收609.2亿美元,同比增长126%;毛利率高达72.7%(同比增长15.8%),净利润为297.6亿美元(同比增长581%)。其中,数据中心业务是其主要收入来源,2023全年实现收入475亿美元,同比增长217%。截至2024年6月初,英伟达市值突破3万亿美元,成为美股市值第二大企业。

图1 英伟达的发展历程

表1 英伟达2023-2024年财年关键业绩指标

技术、产品与服务

1. 技术:注重算力设计,持续技术创新

(1)芯片和算力组合技术

英伟达的核心算力科技,囊括了die-to-die link(裸片到裸片连接),Grace CPU,NVLink,NVSwitch;其掌握了从晶圆(wafer)芯片到印制电路板(pcb)、机柜和到跨机柜的全尺度互联技术。

英伟达打通了技术上下游,将算力设计分成五个物理层次,并且在每一个层次都达到最佳技术要求。这五层分别是:单芯片、Die-to-Dielink一片双芯、NVLink多卡互联、NVSwitch SuperPOD(超算)和AI超级工厂。

(2)GPU架构

英伟达不断推出新的GPU架构,如Ampere、Turing和Hopper等,这些架构在硬件设计上进行了多项创新。其中Ampere架构是Nvidia GPU最新技术的基石,它具有更高的性能、更低的功耗和更强的AI计算能力。

Ampere架构的核心技术包括:

第三代Tensor Core:Ampere架构中的第三代Tensor Core具有更高的浮点运算性能和更强的矩阵乘法能力,能够满足AI模型的复杂计算需求。

第二代RT Core:Ampere架构中的第二代RT Core具有更高的光线追踪性能和更强的实时光照能力,能够提供更加逼真的图形渲染效果。

新的SM架构:Ampere架构中的新的SM(Streaming Multiprocessor,流处理器)架构具有更高的并行处理能力和更强的数据处理能力,能够满足大规模数据处理的需求。

(3)图形渲染技术

一是AI Agent的图形渲染技术DLSS(Deep Learning Super Sampling,深度学习超采样),是Nvidia基于Ampere架构开发的一项革命性技术。DLSS技术使用AI Agent来实时生成高质量的图形,能够提供更加逼真的图形渲染效果和更高的帧率。

二是Nvidia GPU的光线追踪技术(Ray Tracing)。这是Nvidia基于Ampere架构开发的一项革命性技术。Ray Tracing技术使用光线追踪算法来模拟真实世界中的光照效果,能够提供更加逼真的图形渲染效果和更高的图形质量。

三是阴影渲染技术(Variable Rate Shading)。该技术是Nvidia基于Ampere架构开发的一项革命性技术。Variable Rate Shading技术使用可变速阴影渲染算法来模拟真实世界中的阴影效果,能够提供更加逼真的图形渲染效果和更高的图形质量。

(4)AI加速计算技术

Nvidia GPU的AI加速计算技术(AI Acceleration)是其最新技术的核心组成部分。Nvidia GPU的AI计算能力可以满足AI模型的复杂计算需求,提供高速的AI计算性能和低延迟的数据处理能力。包括:第一、Tensor Core,是专门为AI计算设计的处理器单元,能够提供高速的浮点运算性能和矩阵乘法能力。第二、CUDA核心,是专门为并行计算设计的处理器单元,能够提供高速的并行处理性能和数据处理能力。

2. 产品:端到端、训练推理一体、软件全栈

目前在AI领域,英伟达的业务布局遵从:端到端、训练推理一体、软件全栈的业务布局思路,相关产品从下向上,主要包括AI芯片(训练、推理)、网络(芯片互联、设备互联)、基础软件框架&应用软件等。

AI 芯片:英伟达每隔1-2年提出新的芯片架构以适应计算需求升级。其AI芯片布局涵盖了训练和推理两个人工智能关键应用,训练推理融合,并侧重推理。其AI芯片规划的战略核心是“One Architecture”统一架构,支持在任何地方进行模型训练和部署。

计算芯片组合:英伟达在数据中心领域提供一体化的芯片解决方案,CPU+GPU+DPU 的产品组合,叠加英伟达在网络、软件层面的突出优势,有望进一步强化英伟达在数据中心HPC领域的竞争优势。

基础模型Nemo:通过100+伙伴赋能千行百业,借助NeMo,可以建立特定于其领域的虚拟主题专家;还可以帮助现场服务代表更轻松地回答客户问题,并提供准确、最新的信息等。

3. 服务

(1)云计算服务

2022年开始,英伟达利用自己在AI硬件领域的主导地位,来产生英伟达云服务收入(DGX Cloud)。英伟达希望通过美国市场云服务商租用英伟达支持的服务器,英伟达再把相同的服务器租给 AI 软件开发商,以换取云计算收入。AI软件公司也开始从 CoreWeave 等 GPU云初创公司这里租赁算力,而不是从AWS、微软云公司这里租赁。甚至一些大的云公司,也从与英伟达达成合作关系的GPU云初创公司处购买 GPU 服务器。

英伟达的云客户可分为三种类型,包括:小型云公司如coreWeave,AI 软件公司如Cohere、Inflection AI、Aleph Alpha等,大型买家如IT 软件巨头公司 ServiceNow、生物制药公司 Amgen 、保险公司 CCC Intelligence Solutions等。

(2)云原生AI微服务

2024年,英伟达推出生成式AI微服务,供开发者在已安装CUDA GPU的系统中创建和部署生成式AI助手。企业可以利用这些微服务在自己的平台上创建和部署定制应用,同时保留对知识产权的完整所有权和控制权。

NVIDIA CUDA 平台上的云原生微服务包括 NVIDIA NIM 微服务,可适用于 NVIDIA 及合作伙伴生态系统中 20 多个热门的 AI 模型进行推理优化。用户能够从SageMaker、谷歌KubernetesEngine和微软AzureAI中访问NIM微服务,并与Deepset、LangChain和LlamaIndex等流行的AI框架集成;还能以NVIDIA CUDA-X微服务的形式使用NVIDIA加速软件开发套件、库和工具,用于检索增强生成(RAG)、护栏、数据处理、HPC等。

目前包括 Adobe、Cadence、CrowdStrike、Getty Images、SAP、ServiceNow 和 Shutterstock 在内的诸多领先应用、数据和网络安全平台提供商已经率先使用了 NVIDIA AI Enterprise 5.0 的生成式 AI微服务。

市场拓展策略

英伟达通过不断创新和推出先进的产品和服务,已经成为全球AI领域的主导者,并在多个高科技领域保持领先地位。英伟达在数据中心GPU市场占有极高的份额,2023年出货量达到376万台,市场占比高达98%。英伟达通过超强算力&通信性能+CUDA生态+DGX Cloud AI云服务,共同构筑宽广的护城河,其产品推动了全球AI、HPC、游戏、创意设计、自动驾驶汽车和机器人开发领域的进步。

在具体市场拓展策略上,英伟达采取如下措施:

一是通过其NVIDIA LaunchPad计划,将服务覆盖范围扩大至全球9个地区,帮助企业快速开发和部署AI应用。此外,英伟达也在欧洲扩张版图,认为欧洲的商业环境非常适合其业务发展。英伟达还在积极开拓中国市场,推动中国云服务业务的发展。

二是英伟达通过研发投入和技术创新不断推出新一代GPU和其他硬件产品,通过硬件与软件的结合,提供针对不同细分领域的系统解决方案产品,保持市场领先地位。例如,DGX用于数据中心,HGX用于超大规模运算中心。这种技术创新和产品多样化使英伟达能够在AI领域保持领先地位。面对激烈的市场竞争,英伟达通过来巩固其市场地位。

三是英伟达通过提高售价来控制市场需求,避免过度竞争和价格战,从而提升公司的盈利能力。同时,英伟达也会根据市场需求进行价格调整,以吸引更多客户和开发者使用其芯片产品。

四是通过与各行业的合作关系,推动AI技术的广泛应用。例如,与戴尔的合作旨在让机构和企业开发自己的人工智能能力,从而刺激对其产品的需求。此外,英伟达还与联发科等公司合作,进一步拓展AI PC市场。

五是通过多元化的投资策略,不仅拓展了其业务范围,还加强了与各行业的合作关系。这种投资策略有助于英伟达在全球范围内拓展业务。

六是不断探索新的市场机会,例如再次进军游戏掌机市场等。

组织与运营

分布式操作系统的组织架构。英伟达将管理比作GPU的运作,强调每个单元独立运作又整体协同,通过分布式的沟通和组织架构,实现信息的广泛分布与高效处理,保证组织的灵活性和效率。

对等薪酬体系。英伟达实行一种精确度极高的薪酬分配机制,确保每个成员的薪酬差异极小,旨在减少内部等级感,促进团队合作。

直接汇报体系。采用扁平化管理结构,减少中间层级,CEO黄仁勋直接管理接近50名副总及部门总经理,具体包括:财务运营4人,科研2人,技术9人,合作创业1人,法务3人,运营4人,外地业务2人,机器人1人,生态系统4人,终端用户销售7人,人力资源5人(含人力资源配置、全球招募),企业传媒2人,边缘计算1人。整个汇报体系重视效率和透明度,强调信息共享而非控制。

英伟达常年专注投入研发,研发费用处于高位水平。上市以来,英伟达通过“三团队-两季度”的研发模式以及聚焦GPU研发,实现了在单一领域与友商相比更高的研发投入。如与AMD相比,2005年英伟达研发投入为AMD的32.73%,而2023年,英伟达研发投入已是AMD的1.47倍。

通过高效管理,销售及管理费用率逐年下降。英伟达上市以来销售费用率从10%逐步下降,2023年,英伟达销售及管理费用率下降至4.36%。

资本运作

英伟达不仅在芯片研发上投入巨大,还在AI初创公司的投资方面表现非常活跃。这些投资覆盖AI基础设施、AI垂直应用以及生成式AI等多个领域,为英伟达带来了新的增长点和技术协同。

2023年英伟达通过其风投部门Nventures投资了34家与AI相关的公司.这一数字是2022年的3倍多。在生成式AI方面,英伟达投资了搜索引擎、视频创作生成、人工智能代理等领域的公司。在AI垂直应用方面,英伟达投资了10家医药相关公司。例如,英伟达在2023年8月投资了开源大模型开发平台Hugging Face,并在9月投资了数据分析和人工智能软件制造商Databricks。此外,英伟达还投资了巴黎AI初创公司Mistral,该公司估值达到20亿欧元。

  表2 英伟达2023年投资的34家初创公司

2024年,英伟达继续加大对AI初创公司的投资力度。据报道,英伟达通过风投部门投资总额超过15亿美元,重点投资未来十年的新技术。这些投资不仅涵盖了生成式AI、AI基础设施和AI垂直应用,还包括了其他领域如生物技术和自动驾驶等。

英伟达的投资一方面旨在强化生态系统,通过资助与其平台高度相关的创新者来扩展生态系统。这种策略有助于英伟达构建一个更加紧密和互补的合作伙伴网络,从而进一步巩固其在AI领域的领导地位。另一方面旨在获得财务回报,英伟达特别重视AI领域的顶尖初创公司,如Cohere等。

英伟达在投资AI初创公司时,主要考虑以下几个标准和因素:

一是业务相关性,英伟达非常重视投资项目与其核心业务的相关性。NVentures负责人曾指出,对英伟达来说,投资初创企业的首要标准是相关性。

二是技术实力和市场前景,英伟达会评估目标公司的技术实力和市场前景,以确保其投资能够带来长期的回报。这包括对产品性能、功耗和环保性能等方面的考量。

三是注重具体行业应用领域,英伟达感兴趣的投资领域包括软件、制药和医疗保健等,这些领域与其自身的技术优势和市场需求高度相关。

四是合作潜力,如英伟达通过投资AI算力新秀CoreWeave,并通过抵押H100 GPU拿到贷款,用以购买更多英伟达的GPU,形成了一个良性循环,既加强了自身产品的市场渗透,又促进了目标公司的发展。

五是目标公司估值,英伟达一般只进行小额投资,只在个别情况下进行大额投资,如以10亿美元收购特拉维夫AI初创公司Run:ai,因为这是一家已经成功帮助多家全球500强企业优化 AI硬件基础设施的公司,拥有稳定的客户群和收入。

生态合作

英伟达(NVIDIA)在全球范围内与多家公司建立了合作关系,涵盖了人工智能、半导体制造、汽车、云计算等多个领域,典型合作伙伴包括:

(1)人工智能和半导体领域

台积电:与英伟达合作使用计算光刻平台,加快下一代先进半导体芯片的制造速度并克服物理限制。

Synopsys(新思科技):在生产中率先使用英伟达计算光刻平台。

联想集团:合作推出全新混合人工智能解决方案。

(2)汽车行业:

捷豹路虎、比亚迪等:与英伟达建立多年战略合作关系,共同致力于新一代自动驾驶系统的研发。

(3)云计算和HPC(高性能计算):

谷歌云:与英伟达扩大合作伙伴关系,推进AI计算、软件和服务的发展。

亚马逊AWS:将基于AWS Graviton2的Amazon EC2实例与NVIDIA GPU相结合,提升科学和AI应用的开发。

(4)游戏和显卡制造商:

包括华硕(ASUS)、宏碁(Acer)、惠普(HP)、联想(Lenovo)。这些公司集成了英伟达的GPU,提供各种定制解决方案,如游戏显卡、专业图形工作站、数据中心服务器等。

(5)云服务商、大模型商:

OpenAI、微软、Meta、戴尔、甲骨文:这些大公司与英伟达有紧密的合作关系,共同推动AI技术的发展。

Hugging Face:与英伟达建立合作伙伴关系,让开发人员可以在Nvidia DGX Cloud超级计算基础设施上进行机器学习和AI工具开发。

(6)其他企业:

此外,英伟达还通过其NVIDIA Partner Network (NPN)与全球各地的合作伙伴进行合作,这些合作伙伴按照能力类型进行划分。

前瞻布局移动基站,剑指边缘计算:英伟达正在与电信基础设施建设者爱立信就一款包含芯片设计英伟达的图形处理单元(GPU)技术的无线芯片进行谈判,同时软银和英伟达将联合成立一个新的行业协会“AI-RAN 联盟”,电信巨头爱立信、诺基亚等全球约 10 家公司也将参加其中,致力于将利用移动通信基站分散 AI 处理的技术实用化。

共同开发先进AI模型:英伟达和OpenAI扩展了他们的合作伙伴关系,共同开发了一个比ChatGPT更强大的先进AI模型,该模型连接了1000万个英伟达 AI GPUs。这一合作标志着在AI领域的一个新时代的开始,旨在利用惊人的计算能力重新定义AI的边界。

加速AI研究与开发:英伟达与谷歌云的合作扩展到了为机器学习社区提供技术支持,使他们能够更快速、轻松地构建、扩展和管理生成式AI应用软件。英伟达与谷歌的合作还包括对谷歌开源大模型Gemma的优化,使用英伟达TensorRT-LLM技术,这有助于加速AI模型的训练和推理过程。

本文作者

李晨清

战略发展研究所

二级分析师

硕士,就职于中国电信研究院,战略运营研究方向,长期从事金融科技、数字新消费、国际业务等研究。

张小东

战略发展研究所

一级分析师

硕士,长期从事数字产业发展和政策研究,近年来专注于数字产业、合规管理、数字出海业务研究等领域。

来源:天翼智库

相关

服务器转型单芯片网络融合
本评论 更新于:2024-6-30 16:12:56
在C114 APP中与业内人士畅聊通信行业热点话题!