景嘉微发布全国产 AI 加固服务器:预置 DeepSeek,开箱即用

服务器内置 Deepseek-R1 1.5B ~ 70B 蒸馏模型,支持零配置启动大模型的交互演示。开发者可快速调用预置模型接口。

国产 GPU 厂商景嘉微昨日推出预置 DeepSeek-R1 模型的全国产加固 AI 服务器,号称“算力自主”“开箱即用”。

图片

AI在线附设备参数如下:

  • CPU:64~128 核 CPU

  • 最高频率:2.6GHz

  • 算力:50~2000 TOPS

  • 内存容量:256GB

  • 显存容量:32~512GB

  • 存储容量:100TB

  • 结构尺寸:标准 19 英寸服务器,7U 高度,深度 400mm

  • 模型支持:单机支持 DeepSeek-R1 1.5B ~ 70B 蒸馏模型,最多支持 200 + 用户并发。

  • 操作系统:麒麟 / openEuler 操作系统

  • 集群支持:支持

  • 国产化率:100% 全国产

预置大模型运行演示

预置大模型运行演示

景嘉微官方公告称,该服务器基于 100% 国产化的模组和元器件自主设计,预置国产 DeepSeek-R1 开源大模型,实现从芯片级硬件到系统级软件的端到端自主可控。 

服务器内置 Deepseek-R1 1.5B ~ 70B 蒸馏模型,支持零配置启动大模型的交互演示。开发者可快速调用预置模型接口。

服务器单机最高可搭载 2000 TOPS 算力与 256GB 高速显存,单机即可驱动最高 DeepSeek-R1 70B 蒸馏模型推理,可同时部署多个不同参数的 DeepSeek-R1 蒸馏模型,最高支持 200 + 用户高并发访问,满足千人团队使用场景。通过 RoCE 无损网络构建弹性算力集群,预留千亿级参数模型部署能力(兼容 DeepSeek-R1 671B 全参数版本)。

服务器通过加固设计,内置冗余供电,具备抗强震动、电磁屏蔽、三防(防潮 / 防尘 / 防腐蚀)等特性,确保特种行业复杂工况下的持续稳定运行。

相关资讯

景嘉微国产 GPU 完成 DeepSeek R1 系列模型适配

景嘉微 JM 系列完成了 DeepSeek-R1-Distill-Qwen-1.5B 模型和 DeepSeek-R1-Distill-Qwen-7B 模型的适配。

单机即可部署运行 DeepSeek R1 671B 模型,浪潮信息推出元脑 R1 推理服务器

DeepSeek 开源了多版本模型,其中,DeepSeek R1 671B 模型作为全参数基础大模型,相比蒸馏模型具有更强的泛化能力、更高的准确性和更好的上下文理解能力,但也对系统显存容量、显存带宽、互连带宽和延迟提出了更高要求。

全球 AI 服务器市场迎来爆发,出货量有望年增近 28%

根据 TrendForce 集邦咨询的最新研究报告,全球 AI 服务器出货量预计在2025年将实现近28% 的年增长。 这一增长主要得益于 DeepSeek 的推动,云服务提供商(CSP)们将更加积极地开发成本较低的自有 ASIC 方案。 此外,市场的重心将从 AI 训练逐步转向 AI 推理,预计到2025年,AI 推理服务器的市场占比将接近50%。