DeepSeek

如何利用DeepSeek进行高效内容创作:提升效率与流量的终极指南

在当今信息爆炸的时代,内容创作者面临着巨大的竞争压力。 无论是公众号博主、自媒体人,还是技术写作者,都需要在短时间内产出高质量的内容,以吸引读者的关注并提升流量。 而随着人工智能技术的快速发展,像DeepSeek这样的AI工具正在成为内容创作的得力助手。

OpenAI 阿尔特曼:公司没有起诉 DeepSeek 计划,将继续打造出色的产品

OpenAI CEO 山姆・阿尔特曼 2 月 3 日在东京对媒体表示,公司没有起诉 DeepSeek 的计划,并称“公司将继续打造出色的产品,并以模型能力引领世界,我认为这会很棒。”

国产 GPU 助力,摩尔线程实现对 DeepSeek 蒸馏模型推理服务部署

DeepSeek 开源模型(如 V3、R1 系列)在多语言理解与复杂推理任务中展现了卓越性能。摩尔线程智能科技(北京)有限责任公司今日发文宣布,摩尔线程实现了对 DeepSeek 蒸馏模型推理服务部署。

DeepSeek 登陆阿里云,支持云上一键部署 V3、R1 模型

阿里云计算有限公司昨日发文官宣,阿里云 PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1。

DeepSeek告诉我:程序员在AI时代不必焦虑

一、AI焦虑的本质:程序员为何担心被取代? 凌晨2点,程序员小王对着屏幕发呆。 GitHub Copilot刚帮他自动补全了代码,但看着一行行自动生成的函数,他突然感到后背发凉:“如果AI连代码都能写,我的价值在哪里?

DeepSeek 威胁下,OpenAI 称考虑开源旧 AI 模型

OpenAI CEO 山姆・阿尔特曼在当地时间上周五(1 月 31 日)举行的 Reddit“Ask Me Anything”活动中表示, OpenAI 需要“弄清楚另一种开源战略”。

Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,全免费体验

Gitee AI 昨日宣布上线 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B 四个较小尺寸的 DeepSeek 模型。

郭明錤称 DeepSeek 爆红加速 AI 模型“设备端化”趋势

分析师郭明錤今天发文,认为随着 DeepSeek 的爆红,设备端 AI 的趋势将加速。

新研究揭示 DeepSeek / o3 弱点:频繁切换思路放弃正确方向,最短答案往往就是对的

最新研究揭示:在遇到高难度问题时,推理大模型可能像“三心二意的学生”一样频繁切换解题思路,却因缺乏深入探索而失败 —— 这种现象被研究者称为 Underthinking(欠思考)。

中国红客联盟:与目前网络上传播的所谓“红客联盟工具包”毫无关联

中国红客联盟今就 DeepSeek 事件再次发布声明,称该事件系互联网企业博主为营销宣传,以及某国内小企业借中国红客联盟之名进行的计划性营销牟利行为。

日本经济产业省:目前还很难预测 DeepSeek 对电力需求的潜在影响

据路透社报道,日本经济产业省(METI)通过电子邮件回应了关于数据中心扩张可能增加电力需求的讨论。该部门表示,尽管数据中心的扩展确实可能推高电力需求,但随着类似 DeepSeek 等新技术的出现,未来电力需求的变化仍难以准确预测。

秘塔 AI 接入满血版 DeepSeek R1 推理模型

上海秘塔网络科技有限公司昨日发文官宣,在秘塔 AI 中对 R1 满血版进行集成,并结合了秘塔数十亿的全网数据以及数千万的学术文献。目前版本已上线网页端,App 端将在后续版本上线。

DeepSeek 实现任务调度分片算法 , 灵性十足,远超预期 !

这几天,中国人工智能公司 DeepSeek 火了,不仅在美区下载榜上超越了 ChatGPT ,还引发多个美国科技股的股价暴跌。 美国总统特朗普称 DeepSeek 的出现“给美国相关产业敲响了警钟”。 于是,怀着极强的好奇心,我尝试让 DeepSeek V3 模型帮我完成任务调度系统分片功能,流程见下文。

中国红客联盟:未收到任何来自 DeepSeek 求助请求,也从未与其有过任何形式合作或关联

中国红客联盟昨日发布关于 DeepSeek 事件的官方声明,称未曾收到任何来自 DeepSeek 的求助请求,也从未与其有过任何形式的合作或关联。

DeepSeek R1 简易指南:架构、本地部署和硬件要求

DeepSeek 团队近期发布的DeepSeek-R1技术论文展示了其在增强大语言模型推理能力方面的创新实践。 该研究突破性地采用强化学习(Reinforcement Learning)作为核心训练范式,在不依赖大规模监督微调的前提下显著提升了模型的复杂问题求解能力。 技术架构深度解析模型体系:DeepSeek-R1系列包含两大核心成员:DeepSeek-R1-Zero参数规模:6710亿(MoE架构,每个token激活370亿参数)训练特点:完全基于强化学习的端到端训练核心优势:展现出自我验证、长链推理等涌现能力典型表现:AIME 2024基准测试71%准确率DeepSeek-R1参数规模:与Zero版保持相同体量训练创新:多阶段混合训练策略核心改进:监督微调冷启动 强化学习优化性能提升:AIME 2024准确率提升至79.8%训练方法论对比强化学习与主要依赖监督学习的传统模型不同,DeepSeek-R1广泛使用了RL。

DeepSeek 火爆了,主打高性能低价格!

大家好,我是君哥。 春节这几天,DeepSeek 可以说是火爆了,铺天盖地都是 DeepSeek 的报道。 今天,我们一起学习一下 DeepSeek。

硅谷掀桌!DeepSeek遭OpenAI和Anthropic围剿,美国网友都看不下去了

顶级“礼遇”。 一觉醒来,OpenAI和Claude母公司都对DeepSeek出手了。 据《金融时报》消息,OpenAI表示已经发现证据,证明DeepSeek利用他们的模型进行训练,这涉嫌侵犯知识产权。

完整的671B MoE DeepSeek R1怎么塞进本地化部署?详尽教程大放送!

AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。