架构创新×模型创新!清微智能全面适配DeepSeek模型推理和训练

随着大模型技术向多场景渗透,算力需求呈现「大规模、高弹性、低成本」三重挑战。 清微智能基于全球领先的可重构计算架构(CGRA)推出可重构算力芯片RPU(Reconfigurable Processing Unit),实现单机高效运行千亿级参数模型推理和训练,以动态硬件重构、全栈优化及高能效比,重新定义国产AI芯片的性价比标杆。 新年伊始,DeepSeek的惊艳亮相,不仅在科技圈掀起巨浪,其影响还涉及到经济、社会、政策等多个维度,相关企业迅速跟进。

随着大模型技术向多场景渗透,算力需求呈现「大规模、高弹性、低成本」三重挑战。

清微智能基于全球领先的可重构计算架构(CGRA)推出可重构算力芯片RPU(Reconfigurable Processing Unit),实现单机高效运行千亿级参数模型推理和训练,以动态硬件重构、全栈优化及高能效比,重新定义国产AI芯片的性价比标杆。

新年伊始,DeepSeek的惊艳亮相,不仅在科技圈掀起巨浪,其影响还涉及到经济、社会、政策等多个维度,相关企业迅速跟进。

以可重构计算技术路线立足于国产AI芯片赛道的清微智能也积极响应,其RPU芯片已完成DeepSeek-R1系列模型的适配和部署运行。

架构创新×模型创新!清微智能全面适配DeepSeek模型推理和训练

清微智能RPU芯片通过可重构计算架构映射和数据流控制技术,在处理AI任务时,以更高效率实现计算资源的动态调度分配,摒弃传统指令处理流程和共享存储数据交换机制,使硬件资源更聚焦于核心计算任务。

清微智能算力服务器支持无交换机自组网调度,显著提升计算资源利用率与能效比,单机支持从1.5B、7B到六千亿参数的DeepSeek全量模型,是国产算力支持国产DeepSeek大模型的高性价比独特方案。

清微智能算力服务器具有训推一体特点,不仅在DeepSeek系列模型的推理上表现出优异的性能,同时高性能支持基于DeepSeek模型对其他模型进行蒸馏训练,极大方便了用户实现大模型本地私有化部署。

例如:使用DeepSeek-R1模型对NuminaMath-TIR等数据集的问题进行推理解答,生成的思考过程和答案作为Qwen2-7B模型蒸馏训练数据集,基于清微智能算力服务器加载蒸馏训练数据集和Qwen2-7B的模型权重及配置文件,进行Qwen2-7B模型的蒸馏训练。

架构创新×模型创新!清微智能全面适配DeepSeek模型推理和训练

连日来,DeepSeek系列模型的火爆出圈,凸显了国产大模型创新爆发出震撼全球的威力。

清微智能RPU芯片以计算架构创新,结合国产模型路径创新,迸发出强强联合1+1>2的效果,为AI用户提供了更具经济性的组合选择。

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

DeepSeek-R1详细解读!

DeepSeek-R1爆火,今天来详细看下。 论文地址::::现有LLMs在推理任务上的改进主要依赖监督微调(SFT)和后训练(Post-Training)方法,但这些方法需要大量人工标注数据且成本高昂。 OpenAI的o1系列模型虽通过扩展推理链(Chain-of-Thought, CoT)提升了性能,但其测试时扩展仍存在挑战。

服务器总是繁忙?DeepSeek-R1本地部署图文版教程来啦

最近一段时间,国产大模型DeepSeek-R1在市场上迅速崛起,成为了众多用户的新宠。 然而,伴随其热度与用户量的急剧攀升,由此导致服务器繁忙的状况频繁出现。 为了摆脱服务器繁忙的困扰,本地部署DeepSeek-R1成为了一个绝佳的解决方案,这不仅减少了对网络连接的依赖,还能增强数据安全性。