AI 芯片厂商 Cerebras 部署 DeepSeek 服务爆单,降低成本反而扩大市场容量

AI 芯片厂商 Cerebras 的 CEO Andrew Feldman 接受采访时说,该公司已经被运行 DeepSeek-R1 大语言模型的订单压垮。

据 ZDNET 2 月 10 日报道,AI 芯片厂商 Cerebras 的 CEO Andrew Feldman 接受采访时说,该公司已经被运行 DeepSeek-R1 大语言模型的订单压垮

据AI在线此前报道,Cerebras 曾推出用于 AI 的晶圆级芯片,一块芯片就提供 125 PFLOPS 的峰值算力,搭配片外内存可以实现至高 1.2PB 的内存容量。

DeepSeek-R1 的预训练成本可以低到 GPTo1 等主流模型的十分之一,且效果相近甚至更好,被一些人认为是 AI 的分水岭。

Feldman 认为,DeepSeek 对人工智能的影响不仅在当下,更在于将刺激出更大的 AI 系统。随着成本的降低,市场正在变得越来越大

Cerebras 在官网展示,Cerebras 的晶圆级 AI 芯片,部署 DeepSeek-R1 70B 可以达到 1508 tokens / s 的性能,比 GPU 快很多

AI 芯片厂商 Cerebras 部署 DeepSeek 服务爆单,降低成本反而扩大市场容量

用户在使用包括 DeepSeek-R1 等“推理模型”时,输入提示词后需要时间等待是一大痛点。因为采用了名为 Chain-of-thought(CoT)的方法来增强模型的推理能力,将多步问题分解为中间步骤,允许模型在需要时执行额外的计算。推理时逐字进行推理,对整段提示词的推理需要进行多次,需要大量算力。

客户可以通过蒸馏将大模型的“知识”转移到小模型来缓解痛点,大模型通常被称为教师模型,较小的模型被称为学生模型。

为了改善使用 DeepSeek 模型的体验,Cerebras 为客户提供的标准做法是利用 DeepSeek 开源在 Hugging Face 的模型参数(权重)作为教师模型,蒸馏出一个较小的学生模型用于实际部署,Cerebras 在官网表示 DeepSeek R1 蒸馏到 Llama 70B 后精度几乎没有下降。

Feldman 表示,DeepSeek 是第一个顶级的开源推理模型,是开源 AI 的重大胜利。通过蒸馏技术,开源模型只需要公开模型参数(权重),研究人员不需要访问源码也可以复制新 AI 模型的进步。他认为,DeepSeek 的经济性不仅震惊整个人工智能行业,更可以使尖端 AI 芯片和网络技术获得更多投资。

有些人认为计算成本的下降将导致市场萎缩,但过去 50 年都表现出降低成本反而扩大市场容量。无论是电脑还是智能手机,价格的降低都推动了普及。

Cerebras 从去年 8 月开始提供公共推理服务,自称是“世界上最快的人工智能推理服务提供商”。该公司目前只提供蒸馏后的 70B 模型,Feldman 表示,405B 的模型太贵了,客户更青睐价格实惠的模型,当然也有一部分客户认为准确性的提升值得更高的成本而选择更大的模型。

相关阅读:

  • 《中小 AI 芯片企业感谢 DeepSeek R1:给了我们机会和订单》

相关资讯

Cerebras与Perplexity携手打造超高速AI搜索模型Sonar,瞄准千亿美元市场

近日,Cerebras Systems 与 Perplexity AI 宣布达成合作,共同推出一款新的超快速 AI 搜索模型 Sonar,旨在挑战传统搜索引擎的主导地位。 合作的核心在于 Sonar 模型,该模型在 Cerebras 专用的 AI 芯片上运行,速度达到每秒1200个标记,成为目前市场上最快的 AI 搜索系统之一。 Sonar 模型建立在 Meta 的 Llama3.370B 基础上,标志着一种新型 AI 优先的搜索体验,双方对其快速性能寄予厚望。

Cerebras 推出第三代晶圆级芯片 WSE-3:台积电 5nm 制程,性能翻倍

晶圆级芯片创新企业 Cerebras 推出了其第三代芯片 WSE-3,宣称以相同功耗相较上代产品 WSE-2 性能翻倍。IT之家整理 WSE-3 参数如下:台积电 5nm 制程;4 万亿个晶体管;900000 个 AI 核心;44GB 片上 SRAM 缓存;可选 1.5TB / 12TB / 1.2PB 三种片外内存容量;125 PFLOPS 的峰值 AI 算力。Cerebras 宣称基于 WSE-3 的 CS-3 系统凭借其至高 1.2PB 的内存容量,可训练比 GPT-4 和 Gemini 大 10 倍的下一代

4 万亿晶体管 5nm 制程,全球最快 AI 芯片 WSE-3 碾压 H100:单机可训 24 万亿参数 LLM,Llama 70B 一天搞定

【新智元导读】AI 世界的进化快得有点跟不上了。刚刚,全球最强最大 AI 芯片 WSE-3 发布,4 万亿晶体管 5nm 工艺制程。更厉害的是,WSE-3 打造的单个超算可训出 24 万亿参数模型,相当于 GPT-4 / Gemini 的十倍大。全球最快、最强的 AI 芯片面世,让整个行业瞬间惊掉了下巴!AI 芯片初创公司 Cerebras 重磅发布了「第三代晶圆级引擎」(WSE-3)。性能上,WSE-3 是上一代 WSE-2 的两倍,且功耗依旧保持不变。90 万个 AI 核心,44GB 的片上 SRAM 存储,让