澎峰科技 + 海光 DCU:自研推理框架全面支持 DeepSeek 系列模型

澎峰科技在近日正式宣布,其自主研发的 PerfXLM + 推理框架已基于海光 DCU,完成对 DeepSeek 全系列模型的深度适配与优化。

澎峰科技在近日正式宣布,其自主研发的 PerfXLM + 推理框架已基于海光 DCU,完成对 DeepSeek 全系列模型的深度适配与优化。

澎峰科技 + 海光 DCU:自研推理框架全面支持 DeepSeek 系列模型

▲ 截图自澎峰科技官网

据介绍,在性能方面,PerfXLM + 推理框架通过底层架构优化,全面适配海光 DCU 算力平台,为 DeepSeek 模型提供性能支持。针对 DeepSeek-R1-Distill 系列等模型,框架结合海光 DCU 的并行计算能力,可降低资源消耗,在同等硬件条件下进一步提升推理效率。

生态方面,海光 DCU 基于 GPGPU 通用加速计算架构设计,在兼容性与生态开放性具备优势,DeepSeek 模型可直接在海光 DCU 上运行,可减少底层适配工作量,技术团队仅需聚焦模型精度验证与持续性能优化,即可实现部署。同时,PerfXLM + 推理框架通过模型量化、算子融合等核心技术,宣称可为企业提供低成本、高稳定的 AI 推理服务。

场景覆盖方面,澎峰科技自研 PerfXLM + 推理框架已覆盖自然语言处理、多模态理解等核心场景,客户可基于海光 DCU 集群实现模型快速迭代与弹性扩展,满足各行业实时推理需求,推动 AI 技术规模化应用。

据AI在线此前报道,中科曙光国家先进计算产业创新中心有限公司在本月(2 月 4 日)发文宣布,海光信息技术团队成功完成 DeepSeek V3 和 R1 模型与海光 DCU(深度计算单元)国产化适配,并正式上线。

澎峰科技 + 海光 DCU:自研推理框架全面支持 DeepSeek 系列模型

相关资讯

DeepSeek V3 和 R1 模型完成海光 DCU 国产化适配并正式上线

用户在“光合开发者社区”中的“光源”板块访问并下载相关模型,或登录光源官网搜索“DeepSeek”,即可基于 DCU 平台部署和使用相关模型。

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。