硅基流动宣布DeepSeek-R1&V3 API支持批量推理 价格暴降75%

硅基流动 SiliconCloud 平台即日起正式推出 DeepSeek-R1& V3API 的批量推理(Batch Inference)功能。 用户现在可以通过批量 API 向 SiliconCloud 发送请求,摆脱实时推理速率的限制,并在预期24小时内完成大规模数据处理任务。 此次更新的一大亮点是价格的大幅下调。

硅基流动 SiliconCloud 平台即日起正式推出 DeepSeek-R1& V3API 的批量推理(Batch Inference)功能。用户现在可以通过批量 API 向 SiliconCloud 发送请求,摆脱实时推理速率的限制,并在预期24小时内完成大规模数据处理任务。

此次更新的一大亮点是价格的大幅下调。DeepSeek-V3批量推理的价格相较实时推理直降50%。更令人惊喜的是,在3月11日至3月18日期间,DeepSeek-R1批量推理的优惠价格更是直降75%,输入价格仅为1元/百万 Tokens,输出价格为4元/百万 Tokens。

QQ20250312-163818.png

批量推理功能的推出,旨在帮助用户更高效地处理生成报告、数据清洗等大批量数据处理任务,以更低的成本享受 DeepSeek-R1& V3API 服务。此功能尤其适用于无需实时响应的数据分析、模型性能评估等场景。

值得一提的是,此前 DeepSeek-R1& V3API 已相继支持 Function Calling、JSON Mode、Prefix、FIM 等功能,并且 Pro 版 DeepSeek-R1& V3API 的 TPM(每分钟处理的 Token)上限已从1万提升至100万。

相关资讯

降低门槛,全平台应用,昇腾还会手把手地教你如何用AI

机器之心报道作者:泽南如何才能做到 AI 应用一次开发,全场景部署?昇腾给出了答案。如今的大多数 AI 应用程序都需要跑在多种类型的处理器上,覆盖数十个版本的操作系统,运行在从端侧到云计算集群的各种设备上。这样复杂的环境,对软件的适应性和模型的可裁剪、可伸缩性提出了极高要求。AI 开源框架也在顺应这股潮流,昇腾发布的 CANN、MindSpore、MindX 等工具,可以让开发者实现「统一端边云,全端自动部署」,开启了机器学习开发的新时代,一直被人们寄予厚望。昇腾的 AI 全栈软件平台。其中,基础架构作为连接硬件与

院士、委员、专家共议“双智建设”:场景驱动、标准协同、以人为本

智能网联汽车和智慧城市基础设施,已经成为日常生活中随处可见的元素。2021年,住建部和工信部将16个城市列为双智试点城市,探索智慧城市基础设施与智能网联汽车协同发展。试点城市提供了哪些思路?双智的未来该走向何处?这些问题成为当前双智行业关注的重点。近日,由腾讯智慧交通、腾讯研究院联合举办了“双智建设专家研讨会“,共同探讨双智建设的新思路、新机遇。中国工程院院士郭仁忠、全国政协委员、交通运输部科学研究院副院长兼总工程师王先进、中国电动汽车百人会秘书长兼首席专家张永伟、中国信息通信研究院副院长王志勤、中国城市规划设计研

6年技术迭代,阿里全球化出海&合规的挑战和探索

全球化技术根植于全球化业务,经过五个阶段的演进,逐渐发展成为阿里巴巴集团内相对独立的技术体系。本文会首先重点讲解全球化基础设施层的挑战和技术实践。