有把握收入从1亿做到数亿!李开复最新回应25年调整:大厂才烧得起超大模型;第一年的打法已不再适用,AI应用爆发前夜公司要提前卡位

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)在零一万物深陷“收购风波”时,李开复第一时间在朋友圈进行了澄清。 与此同时,他一口气接受了多个采访,通过披露更多信息来攻破谣言。 图片关于零一万物预训练团队和Infra团队的去向已经明晰:愿意继续训练超大参数模型的成员,可以加入零一和阿里云合作成立的“产业大模型联合实验室”。

编辑 | 伊风

出品 | 51CTO技术栈(微信号:blog51cto)

在零一万物深陷“收购风波”时,李开复第一时间在朋友圈进行了澄清。

与此同时,他一口气接受了多个采访,通过披露更多信息来攻破谣言。

图片图片

关于零一万物预训练团队和Infra团队的去向已经明晰:愿意继续训练超大参数模型的成员,可以加入零一和阿里云合作成立的“产业大模型联合实验室”。

这也意味着——李开复放弃了超大模型。这与他刚创办零一万物时的想法有很大不同,他最初的目标是实现AGI梦想的同时取得商业上的成功,想做AGI时代的微软。

因此,零一万物这次的调整在外界看来非常突然。

然而,梳理李开复的回应,我们能看到这家大模型独角兽如何“摸着石头过河”,一步步完成循序渐进的调整。

李开复的取舍抉择实际上做得很早。在去年5月份, 零一发布 Yi-Large之后,团队对技术路线进行了复盘,觉得模型在速度、性价比上不如人意。于是,他们放弃了一个名为“Yi-X-Large”的超大杯模型计划,与AGI的梦想暂时告别了。

很快,到24年下半年,零一万物做了战略上的调整。从之前的聚焦To C出海,转向了布局To B。

李开复将这个调整描述为:“我们先打磨了大模型技术,过程就像是通过技术在找场景。”

转向To B之后,零一万物尝到了转型的“甜头”。根据李开复向媒体的回应,在他所说的“2024年零一万物的确认收入已经有一个多亿”的数额中,其中七成收入来自B端。

叠加上零一万物转型To B仅仅半年来看,其盈利潜力不可谓不丰厚。

在发展这部分业务时,李开复也意识到,最适合做产业模型的,既不可能是3、4B的小模型,也不会是超大模型,而是极速的、极具高性价比的模型。而在技术领先和性价比上取得一个平衡,正是零一万物可以做出的“长板”。

李开复表示,Scaling Law正在变慢。从商业角度考虑,我们认为只有大公司能继续做超大模型。

而AI 2.0时代的商业化灵魂拷问比1.0时代来得更快、更迅猛。

李开复提到,2025 年是 AI-First 应用爆发的元年,中国有望在应用元年弯道超车,零一万物必须提前卡位。

“如果大家不能走过这个坎,不能去验证技术能够真正落地到应用,就会面临淘汰的可能性。”

一、2025年,零一万物的To B怎么做

“创业公司第一年的打法未必适用于第二年。”

在国内,To B因为客户的付费意愿低,一直不被认为是门好生意。那么,换了“打法”的零一万物To B的底气在哪里,又要从哪些方向入手?

李开复提到,零一万物的技术、落地场景、和合作模式是To B优势。

首先,在经过一年多的技术沉淀,零一万物已经具备了世界第一梯队的技术能力,证明了自己能够交付出性能世界领先的模型。我们技术底子够硬。

其次,在寻找落地场景这件事上,我们不像其他 AI 公司能够雇佣数百个销售。但我本人以及联创团队都有着丰富的人脉资源,使得零一万物能够从开始就切入重点领域内的头部公司,快速找到适合凝练出标准化 ToB 解决方案的领域和场景。

第三,零一万物还可以跟创新工场联动。创新工场投资的很多领域的公司,比如 AI 制造、 AI 金融、 AI for Science、具身智能、无人驾驶等等,跟我们都是非常互补的,都可以在行业大模型方面展开合作。”

在To B业务上,李开复坚决不做“做一单赔一单”的生意。

他提到,有三种 ToB 的方向是值得尝试的。

一种是能够为客户创造核心价值的,不仅能省钱,更重要的是能够帮助客户做增长。比如零一万物的如意数字人和万视营销短视频;第二种是在一些特别垂直、又很适合大模型落地的领域,与真正有远见、有决心拥抱大模型的公司一起共创,打造行业大模型。基于目前为人熟知的金融、医疗等领域,零一万物会再向下挖掘更垂直的行业,在这些垂直行业里,行业龙头可能会因为大模型而产生营业额的快速增长。这类企业每个都是金矿,我们已经有了一些尝试。第三就是服务可复制、可快速规模化的领域,服务第一个客户时可能不赚钱,但相似的产品可以服务很多家同类型的客户。

李开复透露,目前零一万物在这个方向上取得了相当乐观的进展。零一万物在游戏、能源、汽车、金融领域都在谈千万以上的单子,而且基本都是软件单。

“我有把握,在 2025 年能有数倍收入增长,从 1 亿做到数亿。”李开复说。

二、只有大厂能烧超大模型

“大家都看得很清楚,只有大厂能够烧超大模型。”李开复告诉媒体。

“超大模型的用处在于可以教较小的模型,所以我们就需要一个训得起大模型的大厂合作。”

他认为,从商业上看,超大模型的ROI是很低的。而超大模型一个非常重要的用处,就是可以做教师模型。

李开复举例了 Anthropic 的 Opus 模型和OpenAI的最先进内部模型(GPT-4.5或GPT-5)都没有对外公开使用。

因为“太大、太贵、太慢,对外也卖不了多少,卖出去的也是被竞品用作教师模型”,因此,最明智的做法就是用教师模型去提高“学生”,再由“学生”完成商业应用的普及。

李开复说,大厂+小虎的合作模式是一个领先的尝试。他提到,虽然无意评估别的公司,但全世界每个较小规模的大模型公司都要考虑这 4 件事:

  • 一是 Scaling Law 变慢时,我们该怎么办。
  • 第二是,只有大厂能做巨大模型的时候,我们怎么回应。
  • 第三是,在商业化困难的时候,怎样能找到一个成长之路,能接住灵魂拷问。
  • 第四是,当能拿到不错收入时,怎么也有可解释的成本——不要让好不容易成长起来的这点收入,变成了一个成本小数点之后的数字。

三、大模型公司全军覆没的概率为0——大模型六小虎找到方向

李开复说,行业正在集体穿越大模型时代的“创新死亡谷”。

但他也在回应中说,大模型公司全军覆没,没有任何概率。

他说,“这些公司都很聪明,都有很多资金,所以都会找到自己的方向,我还是坚信一个判断——三年后,没有一个公司会被认为是大模型公司。就像今天你不会说字节、美团是移动互联网公司,你会说它们是社交、内容、外卖、电商公司。”

“每一个足够颠覆的 AI-first 应用,都是一个创业公司的机会。”

从李开复的回应中,我们看到了零一万物转变航向的成长史。

经过这一年的探索,大模型六小虎们似乎都有了较为明确的方向。

在半年前,我们写六小虎的年中成绩单时,我们说“百川智能似乎是唯一一个有专攻领域的“小虎””,王小川早早地就为百川站定了医疗赛道。

而如今,智谱AI和阶跃星辰“一南一北”,都在国资注入下继续Scaling Law,冲击AGI;Kimi围绕核心用户群大学生和白领群体,重点发力搜索场景,先后推出具备深度搜索功能的探索版、主攻数理化搜题的Kimi视觉思考版,打出差异化;Minmax在To C领先,AI伴侣星野在用户量和收入两个维度都表现不俗,而文生视频也让海螺AI在海内外火速出圈。

不过,确认方向也只是第一步。在2025年,小虎们要迎接的挑战比今年更艰巨、也更加关乎生死。

想了解更多AIGC的内容,请访问:

51CTO AI.x社区

https://www.51cto.com/aigc/

相关资讯

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

机器之心报道机器之心编辑部有研究者发现,李开复「零一万物」公司的 Yi-34B 模型基本上采用了 LLaMA 的架构,只是重命名了两个张量。对此,「零一万物」给出了官方回应。前段时间,开源大模型领域迎来了一个新的模型 —— 上下文窗口大小突破 200k,能一次处理 40 万汉字的「Yi」。这个大模型由创新工场董事长兼 CE0 李开复创立的大模型公司「零一万物」构建,包括了 Yi-6B 和 Yi-34B 两个版本。根据 Hugging Face 英文开源社区平台和 C-Eval 中文评测榜单,Yi-34B 推出时取得

零一万物 API 上线,用户反馈多模态中文能力超过 GPT-4V

零一万物由创新工场董事长兼首席执行官李开复创办于 2023 年 6 月,六个月后,零一万物便成功发布了 Yi 系列模型,包含 6B 和 34B 两个版本,并开源,打破了当时国产开源模型一直难以超过 14B 的现状。 34B也是黄金尺寸的模型,既达到了大模型“涌现”能力的门槛,同时也能在消费级显卡上训练,对开发者相对友好。 此后较长一段时间 Yi-34B 在 Hugging Face 英文开源社区平台跻身前列,一举打响了零一万物的模型名声。

对话零一万物:大模型产品要找到 TC-PMF

上次零一万物(以下简称“零一”)开发布会还是在 2023 年 11 月,宣布成立后的模型首秀:发布中英双语大模型“Yi”,并将其开源。 这一次,时隔半年,零一不仅将基座模型卷到千亿量级,甚至还直接拿出一款 C 端新品“万知”,零一万物创始人李开复称其为“AI-First 版 office”。 在模型层,零一发布了千亿参数的 Yi-Large 闭源模型,在第三方评测基准斯坦福大学的英语排行 AlpacaEval 2.0上,Yi-Large 可与 GPT-4 比肩(如下图所示);并全面升级了开源模型系列 Yi-1.5,分为 34B、9B、6B三个版本,且提供了 Yi-1.5-Chat 微调模型可供开发者选择。