AIGC宇宙 AIGC宇宙

基础

DeepSeek FlashMLA:大模型推理的“涡轮增压器”

FlashMLA(Flash Multi-head Latent Attention)是DeepSeek针对英伟达Hopper架构GPU(如H800/H100)设计的高效解码内核,其核心技术围绕多头潜在注意力(MLA)机制展开,通过软硬件协同优化实现性能突破
2/25/2025 9:08:12 AM
AI在线

完整的671B MoE DeepSeek R1怎么塞进本地化部署?详尽教程大放送!

AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
2/2/2025 11:51:00 PM
机器之心

为什么说DeepSeek的R1-Zero比R1更值得关注?

R1-Zero 等模型正在打破人类数据瓶颈,开启 AI 自我进化新范式? 「比起 R1,DeepSeek 同一时间发布的 R1-Zero 更值得关注。 」这是 ARC Prize 联合创始人 Mike Knoop 在一篇新博客中发表的观点。
1/30/2025 7:58:00 PM
机器之心
  • 1