DeepSeek

DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈

就在刚刚,DeepSeek放出了开源周首日的重磅炸弹——FlashMLA。 这是DeepSeek专为英伟达Hopper GPU打造的高效MLA解码内核,特别针对变长序列进行了优化,目前已正式投产使用。 经实测,FlashMLA在H800 SXM5平台上(CUDA 12.6),在内存受限配置下可达最高3000GB/s,在计算受限配置下可达峰值580 TFLOPS。

“源神”DeepSeek!突破H800性能上限,FlashMLA重磅开源,算力成本还能降

DeepSeek开源周第一天,降本大法公开——FlashMLA,直接突破H800计算上限。 网友:这怎么可能? ?

刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中

上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 第一个项目,果然与推理加速有关。 北京时间周一上午 9 点,刚一上班(同时是硅谷即将下班的时候),DeepSeek 兑现了自己的诺言,开源了一款用于 Hopper GPU 的高效型 MLA 解码核:FlashMLA。

DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。

DeepSeek 入门指导手册——从入门到精通

DeepSeek 是由杭州深度求索人工智能基础技术研究有限公司精心打造的一款大型语言模型(LLM)。 该模型集自然语言处理(NLP)、计算机视觉(CV)、强化学习(RL)以及多模态融合技术等核心功能于一体。 DeepSeek 在国际上获得了高度关注:下载量:DeepSeek 应用在美国苹果应用商店的免费下载排行榜中超越了 ChatGPT,攀升至榜首位置。

DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!

DeepSeek 开源周day1 推出 FlashMLA! 专为Hopper 架构 GPU打造的 超高效 MLA (Multi-Layer Attention) 解码内核,现在已经正式开源啦! 👏什么是 FlashMLA?

DeepSeek 代码库开源进度 1/5:为 Hopper GPU 优化的高效 MLA 解码内核 FlashMLA

DeepSeek今日启动“开源周”,首个开源的代码库为FlashMLA——针对 Hopper GPU 优化的高效 MLA 解码内核,支持可变长度序列。

黄仁勋怒怼市场 “你们都搞错了!”:DeepSeek R1 不是来砸场子, 反而是 Nvidia 的 “神助攻”

“你们都搞错了!” 近日, 英伟达掌门人 罕见 “ 动怒 ” , 公开回应了市场对中国 AI 创企 DeepSeek 发布 R1模型的 “ 过度 ” 反应。 在黄仁勋看来, DeepSeek R1的 横空出世非但不是 对 Nvidia 的 “ 饭碗 ” 构成 威胁, 反而是加速AI发展的重大利好, 对英伟达而言 更是 “ 神助攻 ” 一般的存在。 事情起因于今年1月 DeepSeek 发布 R1模型 后, 市场普遍认为 R1的高效性意味着未来AI发展将不再需要如此庞大的算力资源, 这直接导致Nvidia股价单日暴跌16.9%, 市值瞬间蒸发数百亿美元。

RAGFlow+DeepSeek-R1:14b落地案例分享(足够详细):机加工行业设备维保场景

看到一个段子说,春节开工以后,中国有 5000 万家企业老板担心会错过 DeepSeek。 虽然感觉有点瞎玩梗,但 DeepSeek 无疑已是当下所谓大模型企业应用落地的"房间里的大象"。 不过想想,其实子弹也才刚刚飞了一个月而已。

超 20 家央企接入 DeepSeek,涉及能源、通信、汽车等领域

据经济参考报报道,近来,国资央企“牵手”DeepSeek 已成为一股新风潮。据不完全统计,目前有超 20 家央企接入 DeepSeek,涉及能源、通信、汽车、金融、建筑等多个领域。

DeepSeek热度正盛,被神话还是确有实力?

2025年年初,中国初创公司DeepSeek以一种近乎现象级的速度崛起,引发了全球科技界的热议。 其模型在苹果应用商店的下载量超越ChatGPT、训练成本仅为竞争对手的零头、技术能力被冠以“颠覆性”标签……这些标签让DeepSeek迅速成为舆论焦点。 然而,在铺天盖地的赞誉与争议中,一个核心问题亟待回答:DeepSeek的“神话”究竟是资本市场的造势,还是AI实力的真实体现?

忘掉 DeepSeek:Qwen 2.5 VL 与 Qwen Max 来了

Qwen 系列又推出了两款令人瞩目的新模型:Qwen 2.5 VL 和 Qwen 2.5 Max。 如果还停留在“DeepSeek 是最强”那一档,就可能要重新考虑一下,因为这两款模型的实力相当惊艳。 什么是 Qwen 2.5 VL?

DeepSeek-R1 成 Hugging Face 最受欢迎大模型,力压近 150 万个“对手”

Clement Delangue今日凌晨发文宣布:DeepSeek-R1在Hugging Face上获得了超过10000个赞,成为该平台近150万个模型之中最受欢迎的大模型,“太令人震惊了!”

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

我们热衷探索 Stable Diffusion 是因为它的开源生态与极大的自由度和控制力。 尽管 Stable Diffusion 在图像控制精度上远超 Midjourney,但其复杂操作流程总让创作者望而却步。 然而,最近情况出现了转机。

保姆级教程!小白都能学会的Deepseek本地部署方法

本文教你利用 OpenWebUI 进行本地部署,还可以调用所有的开源大模型,有效提高个人或者企业模型数据的保密程度。 更多DeepSeek 干货:. 掀桌子了!

2025最新版DeepSeek保姆级安装教程:本地部署+避坑指南

本文旨在提供一个全面且详细的DeepSeek本地部署指南,帮助大家在自己的设备上成功运行DeepSeek模型。 无论你是AI领域的初学者还是经验丰富的开发者,都能通过本文的指导,轻松完成DeepSeek的本地部署。 一、本地部署的适用场景DeepSeek本地部署适合以下场景:高性能硬件配置:如果你的电脑配置较高,特别是拥有独立显卡和足够的存储空间,那么本地部署将能充分利用这些硬件资源。

DeepSeek R-1 能否解答这五道“刁钻”AI 问题?

每当有新的语言模型公开发布时,我总会忍不住拿它来做一些看似简单、实则暗藏难点的小测试。 我把这当作给模型做“压力测试”,用来检验它们在逻辑推理上到底行不行。 DeepSeek R-1 刚发布不久,就因为它是开源、且推理能力强大而备受关注。

海外用户也有份,传音 Infinix AI 接入 DeepSeek-R1 满血版

2 月 21 日,传音控股旗下 Infinix 品牌正式宣布接入 DeepSeek-R1 满血版,2 月 26 日起支持 XOS 14.5 及以上版本的 Infinix 机型可通过升级使用,3 月份将发布的全新 NOTE 系列也将接入 DeepSeek-R1。