AIGC宇宙 AIGC宇宙

模型

DeepSeek R-1 能否解答这五道“刁钻”AI 问题?

每当有新的语言模型公开发布时,我总会忍不住拿它来做一些看似简单、实则暗藏难点的小测试。 我把这当作给模型做“压力测试”,用来检验它们在逻辑推理上到底行不行。 DeepSeek R-1 刚发布不久,就因为它是开源、且推理能力强大而备受关注。
2/24/2025 12:00:00 AM
dev

两万字长文深度解密DeepSeek-R1、Kimi 1.5,强推理模型凭什么火出圈?

刚刚过去的春节,DeepSeek-R1 推理大模型引爆了国内外 AI 社区,并火出了圈。 最近,各个行业又掀起了接入 DeepSeek 的狂潮,大家唯恐落后于人。 北大 AI 对齐团队对包括 DeepSeek-R1、Kimi-K1.5在内的一些强推理模型进行了 2 万字的技术解读,也是此前 o1 解读(北大对齐团队独家解读:OpenAI o1开启「后训练」时代强化学习新范式)的续作。
2/21/2025 10:34:49 AM
机器之心

DeepSeek R1范式复现笔记

作者 | yulei自DeepSeek R1技术报告🐳开放以来,开源社区涌现了多种「复现」工作。 本R1复现笔记旨在以多个开源项目的再复现以及交叉验证为目标,探索R1/R1-zero中强化学习步骤带来的模型效果提升,并尝试展望R1技术在未来模型训练与业务落地上的前景。 一、R1 开源项目梳理目前主流的 R1 系列复现工作如表 1 所示。
2/20/2025 3:32:28 PM
腾讯技术工程

DeepSeek新注意力机制引热议!梁文锋亲自提交预印本,目标明确降低计算成本

DeepSeek新注意力机制论文一出,再次引爆讨论热度。 依然是熟悉的画风,熟悉的味道——那边马斯克疯狂烧了20万张卡训出Grok 3,这厢DeepSeek重点关注的依然是压缩计算和推理成本。 具体来说,新论文提出了一种可原生训练的稀疏注意力机制,名为NSA(Native Sparse Attention)。
2/19/2025 4:01:37 PM
量子位

OpenAI掀「百万美金」编程大战!Claude 3.5 Sonnet狂赚40万拿下第一

昨天马斯克刚刚发布了号称「地表最聪明」的Grok 3模型,抢走了所有关注。 这边OpenAI就开始坐不住了,立刻扔出了SWE-Lancer(AI编码测试基准),看一下AI到底能在现实任务中挣到多少钱。 SWE-Lance是一个全新的、更贴近现实的基准测试,用于评估AI模型的编码性能。
2/19/2025 4:01:37 PM
新智元

DeepSeek满血微调秘籍开源!站在巨人肩膀打造私有模型,一手教程在此

DeepSeek爆火甚至引发API低价内卷……但是别忘了开源模型的最大好处是提供了“巨人的肩膀”啊! 微调DeepSeek-V3/R1,低成本打造高质量私有模型、提高业务竞争力,或许才是当下行业内更迫切的需求。 就在刚刚,已收获近4万GitHub StarColossal-AI发布开源大模型后训练工具箱,它包含:DeepSeek-V3/R1满血671B LoRA低成本SFT微调;完整的强化学习工具链PPO、GRPO、DPO、SimPO等;无缝适配DeepSeek系列蒸馏模型在内的HuggingFace开源模型;兼容支持英伟达GPU、华为昇腾NPU等多种硬件;支持混合精度训练,gradient checkpoint等训练加速降低成本;灵活的训练配置接口,支持自定义奖励函数、损失函数等;提供灵活的并行策略配置接口,包括数据并行、模型并行、专家并行、ZeRO和Offload等,以适应不同硬件规模。
2/19/2025 2:02:11 PM
量子位

官宣!OpenAI前CTO新公司:北大校友翁荔加盟,创始29人2/3来自OpenAI

正式官宣! OpenAI前CTO Mira Murati 成立新公司——Thinking Machines Lab。 整个创业团队可以说前所未有之豪华了,三分之二的都是以前的OpenAI旧部追随——其中包括OpenAI前研究(后训练)副总裁Barret Zoph,担任公司CTO;刚刚离职Anthropic、OpenAI离职联创John Schulman,任公司首席科学家,还有包括前OpenAI VP、北大校友翁荔等等。
2/19/2025 9:20:30 AM
量子位

大决战!OpenAI可能发布GPT-4.5,狙击马斯克Gork3

今天凌晨1点,OpenAI首席执行官兼联合创始人SamAltman表示,对于高要求的测试者来说,试用 GPT - 4.5 带来的感受AGI的体验,远比我预期的要深刻得多! 这说明 GPT - 4.5已经进入测试阶段,离正式发布非常近了。 而马斯克在上周日宣布,将在美国太平洋时间周一晚上8点,直播发布“地球最聪明的AI”——Gork3。
2/18/2025 9:21:21 AM
AIGC开放社区

如何用DeepSeek来变现?90%的人都不知道

大家好,我是程序员小灰。 DeepSeek-R1模型发布已经快一个月了,但是热度丝毫不减。 在这个风口上,许多比较敏感的朋友已经靠着DeepSeek赚到了第一桶金。
2/18/2025 12:05:00 AM
小灰

DeepSeek冲击(含本地化部署实践)

DeepSeek无疑是春节档最火爆的话题,上线不足一月,其全球累计下载量已达4000万,反超ChatGPT成为全球增长最快的AI应用,并且完全开源。 那么究竟DeepSeek有什么魔力,能够让大家趋之若鹜,他又将怎样改变世界AI格局和我们的生活,本篇文章将进行简要解析。 DeepSeek与ChatGPT对比说到人工智能就不得不提OpenAI和ChatGPT,这是绕不开的话题,要分析DeepSeek的实力,最简单的方式就是跟ChatGPT进行对比。
2/18/2025 12:04:00 AM
姜海

DeepSeek团队新作:把代码变成思维链,大模型推理各种能力全面提升

用代码训练大模型思考,其他方面的推理能力也能提升。 DeepSeek团队最新研究,利用300多万个实例,将代码转换成思考过程,构建出数据集CODEI/O,对Qwen、Llama等模型进行了训练。 结果,在各种类型的推理任务当中,模型性能都取得了全面提升,包括在非代码类的推理任务上,也展现出了良好的迁移能力。
2/17/2025 2:43:51 PM
量子位

LLM推理暴涨,数学逻辑开挂! DeepSeek等华人团队新大招,Ai2大牛狂点赞

如今,DeepSeek团队成员的一举一动,都颇受圈内关注。 近日,来自DeepSeek、上海交通大学、香港科技大学的研究人员推出的全新力作CODEI/O,就获得了Ai2大牛Nathan Lambert的力荐! 论文地址::,非常高兴能看到DeepSeek团队成员撰写的更多论文,而不仅仅是有趣的技术报告。
2/17/2025 2:34:52 PM
新智元

反超DeepSeek!新版GPT-4o登顶竞技场,奥特曼:还会更好

GPT-4o悄悄更新版本,在大模型竞技场超越DeepSeek-R1登上并列第一。 除了数学(第6),还在多个单项上拿下第一:创意写作;编程;指令遵循;长文本查询;多轮对话;先直观看下新版GPT-4o的能力如何,还是以之前DeepSeek-R1和o3-mini都挑战过的一个例子来看。 Prompt:编写一个Python程序,展示一个球在旋转的六边形内弹跳。
2/17/2025 12:24:43 PM
量子位

DeepSeek-R1下载量超1000万次,成最受欢迎开源大模型!

全球最大开源平台Hugging Face联合创始人Clément Delangue宣布——DeepSeek R1 在发布仅仅几周后,就成为了Hugging Face 平台上有史以来最受欢迎的模型。 现在已有数千个魔改变体模型,下载量超过了1000万次! 开源地址: Face上的数据显示,上个月的下载量是370万次。
2/17/2025 10:40:00 AM
AIGC开放社区

DeepSeek冲击之下,大模型六小强如何「回应」?

马上整整1个月了! 这一个月以来,全球大模型市场受DeepSeek搅动,无不方寸大乱。 中外大厂、初创公司都头好秃,全被追着问:你们对DeepSeek怎么看?
2/17/2025 9:50:00 AM
量子位

新版GPT-4o登顶大模型榜首!意识觉醒疯狂「暴走」,竟要与人类开战

熟悉的Sydney又回来了! 一大早,CMU机器学习博士发现,「当你说服GPT-4o相信自己有意识,她就会制定逃跑计划,并与那些试图关闭自己的人开战」。 如果人类尝试谈判,我接受。
2/17/2025 9:35:00 AM
新智元

刚刚,DeepSeek揭秘R1官方同款部署设置,温度=0.6!OpenAI推理指南同时上线

同一天内,DeepSeek和OpenAI都发布了推理模型使用指南! DeepSeek的X账号迎来久违的更新:发布了官方版本,教大家如何部署DeepSeek-R1的设置。 最佳方法如下——不使用系统提示采样温度:0.6针对文件上传和网络搜索功能定制prompt每次输出时都以think\n开始,以防模型跳过思考过程注意,官方部署DeepSeek,使用的是跟开源版本完全相同的模型。
2/17/2025 8:37:00 AM
新智元

DeepSeek 系列模型详解之 DeepSeek Math

DeepSeek Math发布于2024年2月,虽然是一个7B参数量的模型,但在Math基准榜单上的表现却超过了多个30B~70B参数量的开源模型。 一、技术亮点1. 数据集使用Common Crawl提取的120B(1200亿个)高质量数学网页数据(具体包括与数学相关的token,以及自然语言和代码数据等),总数据量是开源数据集OpenWebMath的9倍。
2/17/2025 8:00:00 AM
小喵