
DeepSeek-V4开源发布,AtomGit首发适配国产算力
2026年4月24日,DeepSeek-V4系列模型正式发布并同步开源。AtomGit平台为DeepSeek-V4昇腾适配版本首发平台,为开发者提供从模型获取、算力适配到工程部署的一站式实践入口。
**本次首发适配,昇腾作为国产算力代表,已完成DeepSeek-V4系列模型的推理与训练侧深度适配支持。**开发者可通过AtomGit获取相关工程实践,基于国产算力环境开展模型推理、微调、训练优化和应用验证。
为开发者提供国产算力适配入口
本次AtomGit首发上线的内容主要包括:
一是DeepSeek-V4模型推理优化实践,面向开发者提供基于国产算力环境的推理部署参考,帮助用户理解模型在不同输入长度、推理引擎和硬件环境下的部署方式。
二是DeepSeek-V4 Ascend C融合算子优化实践,面向算子开发、模型性能优化和底层工程适配场景,提供更细粒度的优化参考。
三是基于CANN平台的TorchTitan-NPU+AutoFuse极简训练优化实践,面向训练侧适配和续训练场景,提供可参考的工程路径。
通过这些资源,AtomGit不只是发布模型相关链接,而是进一步将模型、代码、算力适配、工具链和开发者讨论连接起来,使DeepSeek-V4的开源发布能够更快进入国产算力生态和真实应用环境。
昇腾完成DeepSeek-V4系列支持
在本次DeepSeek-V4国产算力适配中,昇腾完成了对DeepSeek-V4-Pro与DeepSeek-V4-Flash的推理和训练侧支持。相关适配能力通过AtomGit首发开放,开发者可基于公开实践方案开展部署验证与二次开发。
推理侧,昇腾超节点系列产品已支持DeepSeek-V4系列模型部署。围绕长序列推理场景,适配方案结合融合Kernel、多流并行、量化算法和KV Cache优化,降低Attention计算和访存开销,提升模型推理吞吐与时延表现。
DeepSeek-V4已具备在国产算力环境中开展规模化推理实践的基础条件。对于希望在本地化算力、行业私有化部署、国产技术栈环境中探索大模型应用的开发者和企业而言,这提供了更直接的工程参考。
连接开源模型、国产算力与开发者生态
DeepSeek-V4在AtomGit首发适配国产算力,是一次模型开源与工程生态协同的具体实践。
AtomGit在这一过程中承担的是“连接器”和“基础设施入口”的角色:一端连接DeepSeek-V4这样的开源模型,一端连接国产算力与工具链生态,同时面向开发者开放可复现的工程实践。
目前,DeepSeek-V4国产算力适配相关资源已在AtomGit平台开放,包括:
●DeepSeek**-**V4 模型推理优化实践
https://atomgit.com/cann/cann-recipes-infer/tree/master/docs/models/deepseek-v4/deepseek_v4_inference_guide.md
●DeepSeek-V4 Ascend C 融合算子优化
https://atomgit.com/cann/cann-recipes-infer/tree/master/docs/models/deepseek-v4/deepseek_v4_ascendc_operator_guide.md
●基于CANN平台的TorchTitan-NPU + AutoFuse 极简训练优化实践
https://atomgit.com/cann/cann-recipes-train/blob/master/docs/llm_pretrain/deepseek-v4_torchtitan_npu_autofuse.md
AtomGit互动讨论区
https://atomgit.com/org/cann/discussions/85
面向未来,随着更多模型、算力、工具链和开发者资源在AtomGit汇聚,开源人工智能生态将不再只是模型能力的竞争,更将成为工程能力、基础设施能力和生态协同能力的综合竞争。DeepSeek-V4在AtomGit首发适配国产算力,正是这一趋势的具体体现。
*封面图由AI生成
来源:开放原子


