深推理模型崛起!Together AI融资3.05亿美元助推GPU需求

在 AI 行业,Together AI 最近宣布完成了一轮3.05亿美元的 B 轮融资,这一消息引起了广泛关注。 该公司的崛起与其新推出的深度理模型 DeepSeek-R1密切相关。 与最初的担忧相反,许行业专家认为,深度推理的进步并没有降低对基础设施的需求,反而在不断提升这一需求。

在 AI 行业,Together AI 最近宣布完成了一轮3.05亿美元的 B 轮融资,这一消息引起了广泛关注。该公司的崛起与其新推出的深度理模型 DeepSeek-R1密切相关。与最初的担忧相反,许行业专家认为,深度推理的进步并没有降低对基础设施的需求,反而在不断提升这一需求。

GPU 芯片 (2)

图源备注:图片由AI生成,图片授权服务商Midjourney

自2023年成立以来,Together AI 旨在简化企业对开源大型语言模型(LLM)的使用。随着时间的推移,该公司逐步扩展其平台,提供了一个名为 “Together 平台” 的解决方案,支持在虚拟私有云和本地环境中部署 AI。2025年,Together AI 又推出了推理集群和自主智能(Agentic AI)能力,进一步增强了其平台的功能。

据 Together AI CEO Vipul Prakash 介绍,DeepSeek-R1的参数量高达6710亿,这使得其运行推理时的成本不容小觑。为了满足越来越多的用户需求,Together AI 推出了 “推理集群” 服务,为客户提供从128到2000颗芯片的专用计算能力,以确保模型的最佳性能。此外,DeepSeek-R1的请求处理时间通常较长,平均可达两到三分钟,这也导致了基础设施需求的增加。

在推理模型的应用方面,Together AI 看到了一些具体的使用场景,如编码代理、减少模型的幻觉现象以及通过强化学习实现模型的自我提升。这些应用不仅提升了工作效率,还改善了模型输出的准确性。

此外,Together AI 还收购了 CodeSandbox,以增强其在自主智能工作流程方面的能力。这一收购使得其能够在云端快速执行代码,降低了延迟,提高了代理工作流的性能。

面对激烈的市场竞争,Together AI 的基础设施平台正在不断优化,其新一代 Nvidia Blackwell 芯片的部署,将为模型的训练和推理提供更高的性能和更低的延迟。Prakash 指出,与 Azure 等其他平台相比,Together AI 的推理速度显著提高,极大满足了客户对高性能 AI 基础设施的需求。

划重点:  

🌟 Together AI 获得3.05亿美元融资,推动深度推理模型的发展。  

📈 DeepSeek-R1的复杂性使得基础设施需求显著增加,推出了 “推理集群” 服务以满足市场需求。  

🚀 新收购的 CodeSandbox 和 Nvidia Blackwell 芯片将进一步提升 Together AI 的市场竞争力。

相关资讯

DeepSeek揭秘:AI推理系统背后的545%惊人利润率

DeepSeek在知乎开设官方账号,发布了《DeepSeek-V3/R1推理系统概览》技术文章,首次详细披露其模型推理系统的优化细节和成本利润率信息,标志着备受关注的"DeepSeek开源周"正式结束。 文章介绍了DeepSeek-V3/R1推理系统的两大优化目标:"更大的吞吐,更低的延迟"。 为实现这些目标,DeepSeek采用了大规模跨节点专家并行(EP)技术,尽管这增加了系统复杂性。

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。