2026-4-24 15:30

华为昇腾与DeepSeek-V4深度适配:黄仁勋口中的“灾难”,正在变成现实

00:00 00:00

C114讯 4月24日下午消息(蒋均牧)中国人工智能领域的明星企业深度求索(DeepSeek)正式上线全新系列模型DeepSeek-V4预览版并同步向全球开源,宣告时隔一年有余的重磅回归。该系列模型以百万超长上下文为核心亮点,同时大幅降低了对计算和显存的需求,在智能体能力、通用世界知识与复杂推理性能三大维度均实现国内与开源领域领先。

而几乎在发布的第一时间,华为即宣告昇腾超节点全系列产品及华为云已完成对DeepSeek-V4的全面支持。这一在业界预期之中却又不免令人心头一震的联动,不仅让英伟达掌门人黄仁勋前不久的警告一语成谶,更标志着中国AI产业在摆脱对CUDA生态依赖一事上再下一城。

重磅回归:开源模型再次比肩世界顶级闭源

今年1月中旬,The Information率先曝料称,DeepSeek计划在2月发布下一代模型,并声称其在编程能力方面已赶超Claude与GPT系列等顶尖闭源竞品。然而整个2月,DeepSeek官方始终保持静默,外界一度对发布节奏产生疑虑。而今日的种种动作表明,这份等待非常值得。

此次发布的DeepSeek-V4系列包含两个MoE架构版本——面向高性能场景的V4-Pro和面向经济部署的V4-Flash。Pro版总参数达到1.6万亿,激活参数490亿;Flash版总参数2840亿,激活参数130亿。 两款模型均支持1M上下文,且成为DeepSeek所有官方服务的标配。

性能方面,V4-Pro在Agentic Coding评测中达到当前开源模型最佳水平,且已成为DeepSeek内部主力Agentic Coding工具,使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式;在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1;在数学、STEM、竞赛型代码等推理任务中,超越所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。V4-Flash则在保持强劲推理性能的同时优化了模型结构与激活规模,能够提供更加快捷、经济的API服务。

技术层面不可不提的是,DeepSeek-V4创新性地引入了一种基于token维度的动态压缩注意力机制,并与自主研发的DSA稀疏注意力技术紧密结合,在同等上下文长度下单次推理的计算开销与显存占用较前代方案大幅下降。这项突破使得百万级上下文支持从宣传亮点真正走向工程实践,为长文档处理、复杂逻辑推演等场景的规模化落地扫清了关键障碍。

定价方面,DeepSeek延续了其一贯务实的市场策略。以每百万tokens计,Flash版输入(缓存命中)0.2元,输入(缓存未命中)1元,输出2元;Pro版依次为1元、12元、24元,官网聊天与App端保持免费。这一价格体系,依然是DeepSeek撬动开发者生态、抢占市场份额的有力武器。

华为首发适配:芯模协同从“能用”迈向“好用”

一款大模型的发布固然值得关注,但真正决定其生态影响力的,是潜在的应用场景与背后的硬件支撑。而DeepSeek-V4发布当日最值得解读的信号,无疑指向华为昇腾平台的同步适配。

据华为云官方消息,DeepSeek-V4模型正式发布并开源后,华为云第一时间实现了首发适配。基于昇腾CANN架构,华为云针对V4独创的注意力机制优化了分层注意力压缩方案,实现了V4注意力机制下KVCache的高效分配管理,提供了TopK、SWA、CFA等十多种昇腾高性能融合算子,搭配框架异步调度与MTP多步投机等框架技术,完整支持原生1M长上下文的高性能推理。

同时,华为计算宣布昇腾超节点全系列产品全面支持DeepSeek-V4系列模型,双方通过芯模技术紧密协同完成了这项部署。昇腾950通过融合kernel和多流并行技术降低Attention计算和访存开销,大幅提升推理性能,结合多种量化算法,实现了高吞吐、低时延的DeepSeek V4模型推理部署。昇腾A3超节点系列产品也全面适配,同时为便于用户快速微调,提供了基于昇腾A3超节点的训练参考实现。

通过提供更低的延迟、更高的吞吐,昇腾950超节点重新定义了长文本推理的性能天花板,让V4-Pro这样能力顶尖的开源模型从“能用”迈向“好用”。华为计算指出,基于V4-Pro模型,在8K输入场景,昇腾950超节点可实现TPOT约20ms时单卡Decode吞吐4700TPS。V4-Flash模型,8K长序列输入场景下可实现TPOT约10ms时单卡Decode吞吐1600TPS。

DeepSeek官方文档亦显示,V4的细粒度专家并行方案已同时在英伟达GPU和华为昇腾NPU两个平台上完成验证,这意味着DeepSeek-V4在设计之初便已将多平台、多硬件体系的兼容性纳入技术规划,而非事后仓促适配。更值得留意的是,DeepSeek在披露价格的同时,还在价格栏下方的小字中提到,“受限于高端算力,目前V4-Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调”,这句话的潜台词很清晰——V4-Pro的规模化部署,锚定的是昇腾950的产能爬坡。

黄仁勋的预言:“灾难”正在成为现实

英伟达CEO黄仁勋在一档播客访谈中说出一番分量不轻的判断。他指出,中国拥有丰富的能源、巨量的芯片以及绝大多数的人工智能研究人员,把中国变成敌人并非明智之举。在谈及DeepSeek时,他直言不讳地强调:“如果DeepSeek先在华为平台上发布,那对我们国家来说将是灾难性的。”

从当下的现实来看,这番警告甚至颇为及时。在黄仁勋的判断中,美国的出口管制政策正在产生深刻的逆向效应——它非但没有遏制中国AI产业,反而加速了其内部整合。当DeepSeek这样具备顶尖软件能力的公司发现无法获取英伟达最强芯片时,选择与华为昇腾深度耦合,从底层将每一分硬件性能推到极致,几乎是逻辑上的必然。

他清醒地认识到,一旦中国在7nm节点上通过极致的软件优化实现了与美国3nm乃至更先进制程同等甚至更强的AI推理表现,美国在硬体节点上的代际优势将被悉数抹平。而DeepSeek-V4推出伊始即与华为深度适配,正是这一判断从理论推演走向现实图景的转折点。

从产业层面观察,DeepSeek-V4与昇腾的深度适配,标志着中国AI产业在“去CUDA化”进程中迈出了里程碑式的一步。早在本月初已有公开报道显示,V4已首次实现与华为昇腾等国产芯片的深度适配,意味着中国AI产业在摆脱对外国技术生态依赖的进程中取得了实质性突破。

从CUDA到CANN的迁移不是简单的代码移植,而是底层算子重写、精度对齐、通信协议重构的全栈工程。 据接近项目的人士透露,适配过程中最耗时的并非算子重写,而是精度对齐——同样的模型在英伟达和昇腾上跑出一致结果,需要反复调试。昇腾950芯片在低精度数据格式、向量算力与自研HBM等方面的多项突破,则为V4的规模化部署提供了日益充沛的硬件底盘与算力底座。

资本市场对这一动向的反应同样异常激烈。今日上午DeepSeek-V4发布之后,GPU指数盘中直线拉升,海光信息涨幅超9%,中芯国际、龙芯中科、寒武纪、摩尔线程等国产芯片标的纷纷跟涨。国产芯片概念股的普遍强势表现,反映了市场对中国AI算力“国产化替代”趋势的积极预期。

今日的连番发布,意义不止于DeepSeek发布了一款极具竞争力的AI模型,展示了中国AI团队从算法层面不断逼近乃至超越国际领先水平的能力,更在于华为昇腾与V4的深度适配,进一步验证了脱离CUDA、构建自主算力生态的可行性。两个方向的交汇点上的融合,或许正是黄仁勋眼中那只“房间里的大象”——一个围绕中国本土技术与供应链构建的全新AI生态体系正在悄然成形,这在西方的战略思考中,至今似乎仍未找到行之有效的应对方案。

作者:蒋均牧   来源:C114通信网

相关

华为人工智能AI融合播客
本评论 更新于:2026-4-24 16:43:02
在C114 APP中与业内人士畅聊通信行业热点话题!