
NVIDIA 于 12 月 15 日宣布推出 NVIDIA Nemotron™ 3 系列开放模型、数据和库,为各个行业透明、高效的专业代理式 AI 开发提供助力。
Nemotron 3 模型提供 Nano、Super 和 Ultra 三种规模,采用突破性异构潜在混合专家 (MoE) 架构,帮助开发者大规模开发并部署可靠的多智能体系统。
随着企业从单模型对话机器人转向协作式多智能体 AI 系统,开发者面临着日益严峻的挑战,包括通信开销、上下文漂移和高推理成本等。此外,开发者需要模型具备透明度,才能信任其用于自动化复杂工作流。Nemotron 3 直面这些挑战,为用户提供开发专业化代理式 AI 所需的性能与开放性。
NVIDIA 创始人兼首席执行官黄仁勋表示:“开放创新是 AI 进步的基础。通过 Nemotron,我们将先进 AI 转化成开放平台,为开发者提供构建大规模代理式系统所需的透明度与效率。”
NVIDIA Nemotron 为 NVIDIA 更广泛的主权 AI 工作提供支持。从欧洲到韩国,企业组织纷纷采用开放、透明、高效的模型开发符合自身数据、法规与价值观的 AI 系统。
Nemotron 系列模型的早期用户包括埃森哲、Cadence、CrowdStrike、Cursor、德勤、安永、Oracle Cloud Infrastructure、Perplexity、ServiceNow、西门子、新思科技和 Zoom。他们正将 Nemotron 系列模型集成到制造、网络安全、软件开发、媒体、通信等行业的 AI 工作流中。
ServiceNow 董事长兼首席执行官 Bill McDermott 表示:“NVIDIA 与 ServiceNow 多年来一直致力于塑造 AI 的未来,而最好的部分尚未到来。今天,我们在帮助各行业领导者加速推进代理式 AI 战略方面迈出了重要的一步。通过结合 ServiceNow 的智能工作流自动化与 NVIDIA Nemotron 3,我们将以出色的效率、速度与精度继续定义行业标准。”
随着多智能体 AI 系统的扩展,开发者越来越依赖专有模型来实现前沿推理,同时使用更加高效、可定制的开放模型降低成本。在单一工作流中于前沿级模型与 Nemotron 之间进行任务路由,既能赋予智能体强大的智能,同时还可以优化 token 经济效益。
Perplexity 首席执行官 Aravind Srinivas 表示:“Perplexity 的构建理念是当精准 AI 融入先进工具时(例如 AI 助手),人类的好奇心将被放大。通过我们的智能体路由器,可以将工作负载定向到领先的精细调优开放模型,如 Nemotron 3 Ultra,或在任务能够从其独特能力中受益时,利用领先的专有模型,以此确保我们的 AI 助手能够以卓越的速度、效率和规模运行。”
Nemotron 3 开放模型使初创公司能够更快开发和迭代 AI 智能体,并加快从原型到企业级部署的创新进程。General Catalyst 和 Mayfield 旗下的投资组合公司正在探索如何使用 Nemotron 3 开发支持人机协作的 AI 队友。
Mayfield 管理合伙人 Navin Chaddha 表示:“NVIDIA 的开放模型堆栈与 NVIDIA 初创加速计划为初创公司提供了各类模型、工具及经济高效的基础设施,助力其开展试验、实现差异化发展并快速扩展规模。Nemotron 3 可以让创始人在构建代理式 AI 应用和 AI 队友方面取得先机,并帮助他们利用 NVIDIA 庞大的用户基础。”
Nemotron 3 以高效和精准重塑多智能体 AI
Nemotron 3 系列 MoE 模型包含三种规模:
Nemotron 3 Nano:是一款具备 300 亿参数的小型模型,每次运行最多激活 30 亿参数,适用于针对性、高效的任务。
Nemotron 3 Super:是一款具备约 1,000 亿参数的高精度推理模型,每个 token最多激活 100 亿参数,适用于多智能体应用。
Nemotron 3 Ultra:是一款具备约 5,000 亿参数的大型推理引擎,每个 token 最多激活 500 亿参数,适用于复杂的 AI 应用。
Nemotron 3 Nano 已正式上线,是计算成本效益极高的模型,其针对软件调试、内容摘要、AI 助手工作流及信息检索等任务进行了优化,同时保持了较低的推理成本。该模型采用独特的异构 MoE 架构,以实现效率与可扩展性的提升。
这一设计使其 token 吞吐量较 Nemotron 2 Nano 至高提升 4 倍,并减少了多达 60% 的推理 token 生成量,大大降低了推理成本。具备 100 万 token 的上下文处理能力,Nemotron 3 Nano 具有更强的记忆能力,在处理长时间多步骤任务时能更精准地关联信息。
独立 AI 基准测试机构 Artificial Analysis 评定该模型为同等规模模型中兼具极高开放性和效率及卓越精度的模型。
在需要多智能体协作完成低延迟复杂任务的应用中,Nemotron 3 Super 表现出色。Nemotron 3 Ultra 则作为高级推理引擎,服务于需要深度研究和策略规划的 AI 工作流。
Nemotron 3 Super 与 Ultra 采用基于 NVIDIA Blackwell 架构的超高效 4 位 NVFP4 训练格式,可显著降低显存需求并加速训练进程。这种效率使更大规模模型能在现有基础设施上进行训练,不会因更高精度格式而牺牲准确性。
借助 Nemotron 3 系列模型,开发者可根据特定工作负载选择适配的开放模型,在数十至数百个智能体间灵活扩展,同时在复杂工作流中获得更快速、精准的长时推理能力。
用于 AI 智能体定制的全新开放工具与数据
NVIDIA 还发布了面向专业 AI 智能体开发者的训练数据集与前沿强化学习库集合。
3 万亿 token 规模的全新 Nemotron 预训练、后训练及强化学习数据集,为开发高性能特定领域智能体提供了丰富的推理、编码及多步骤工作流范例。Nemotron Agentic Safety Dataset 则提供真实场景的遥测数据,帮助团队评估并提升复杂智能体系统的安全性。
为加速开发进程,NVIDIA 发布了 NeMo Gym 与 NeMo RL 开源库,为 Nemotron 模型提供训练环境及后训练基础,同时还推出用于验证模型安全性和性能的 NeMo Evaluator。所有工具及数据集现已上线 GitHub 和 Hugging Face 平台。
Nemotron 3 已获得 、llama.cpp、 LM Studio和vLLM支持。此外,Prime Intellect 与 正将 NeMo Gym 的即用型训练环境直接集成至其工作流,使团队能够更加快速、便捷地获得强大的强化学习训练能力。
开始使用 NVIDIA 开放模型
Nemotron 3 Nano 现已上线 Hugging Face 平台,并通过 Baseten、Deepinfra、Fireworks、FriendliAI、OpenRouter、Together AI 等推理服务商提供。
Nemotron 还上线了多个企业级 AI 与数据基础设施平台,包括 Couchbase、DataRobot、H2O.ai、JFrog、Lambda 及 UiPath。此外,Nemotron 3 Nano 将通过 Amazon Bedrock(无服务器模式)在亚马逊云科技 (AWS) 平台上提供给使用公有云的客户,并且也即将支持 Google Cloud、Coreweave、Crusoe、Microsoft Foundry、Nebius、Nscale 及 Yotta。
Nemotron 3 Nano 同时以 NVIDIA NIM 形式提供,可在 NVIDIA 加速基础设施上进行安全、可扩展的部署,具有极高的隐私性与可控性。
Nemotron 3 Super 和 Ultra 预计将于 2026 年上半年推出。

