突发:苹果AI与阿里牵手成功!曝本地AI功能已提交网信部审批!曾考虑采用DeepSeek

编辑 | 伊风终于定了? 几经波折,苹果AI在中国的落地终于有了眉目! 阿里最终与苹果牵手成功,合作开发国行的Apple Intelligence。

编辑 | 伊风

终于定了?几经波折,苹果AI在中国的落地终于有了眉目!

阿里最终与苹果牵手成功,合作开发国行的Apple Intelligence。

图片图片

外媒《The Information》爆了这个猛料。从知情人士透露的消息来看:这次阿里应该真的稳了,进展十分乐观。

据说,苹果与阿里共同开发的国行 AI 功能已经提交给国内相关部门审核了。

合作的消息流出后,两家的股价均有上涨,苹果股价在早盘交易中上涨1.5%,而阿里的股票则上涨2.6%。

1.市场份额持续走低,苹果急需上线国行AI

现在,苹果AI的一只靴子终于落地,围绕其AI战略的迷雾逐渐散开。

近年来,随着国产手机的崛起,苹果的日子并不好过,其在高端市场的霸主地位也摇摇欲坠。

春节前的这波“换机潮”中,苹果的表现可谓惨淡:2024年最后三个月,苹果在中国的整体销售额下降11.1%,这是自2024年第一季度以来在中国市场的最大跌幅。

因此,苹果急需在中国市场跟进AI,打上一剂强心针。

2.几经波折:百度效果不理想,DeepSeek经验欠缺

知情人透露,苹果早在 2023 年开始就开始操心苹果AI的中国落地。

去年,苹果选择了“老搭档”百度作为主要合作伙伴(注:自2012年起,百度一直是苹果网络浏览器的默认搜索引擎)。

然而,百度却在为“Apple Intelligence”开发模型方面进展未达到苹果的标准。根据此前的报道,百度文心一言模型在理解提示和对 iPhone 用户推出的常用场景上做出准确回应上一直存在着困难,即可能出现回答不够准确或答非所问的情况。

之后,苹果转向了对其他选项的评估。

先后商讨了,腾讯、字节、阿里以及近期爆火出圈的Deepseek。

The Information报道中提到,苹果最终放弃了最近呼声很高的 DeepSeek ,因为 DeepSeek 团队缺乏支持像苹果这样的大客户所需的人力和经验。

3.写在最后:苹果和阿里将交出怎样的答卷

苹果最终牵手阿里,既是对阿里家大模型通义千问(Qwen)高性能的认可,又再次印证了开源模型在AI领域的崛起。最近,DeepSeek 的 R1 蒸馏模型(DeepSeek-R1-Distill)、李飞飞团队的 S1 纷纷选择 Qwen 作为技术底座,这种行业共识无声地证明:开源,不是“智商税”,而是生产力!

苹果一向以用户隐私为金字招牌,而开源模型的透明性恰好迎合了这个理念,最终能跑赢百度并不意外。

但真正的考验才刚刚开始——苹果与阿里联手打造的国行版 AI 能否扭转颓势,技术层面是一方面,更关键的还是中国“果粉”会不会用自己的钱包投票。

参考链接:

1.https://mp.weixin.qq.com/s/HPkLSAbp4b3xlHc77IyzhA

2.https://www.theinformation.com/articles/apple-partners-with-alibaba-to-develop-ai-features-for-iphone-users-in-china

3.https://www.reuters.com/technology/apple-partners-with-alibaba-develop-ai-features-iphone-china-information-reports-2025-02-11/

4.https://finance.yahoo.com/news/iphone-sales-slump-china-apple-121132296.html?guccounter=1

相关资讯

DeepSeek 强势登陆国家超算平台!三大运营商全面接入

在过去的一个半周末,DeepSeek 的影响力不断攀升,迎来了多项重要进展。 国家超算互联网平台正式上线了 DeepSeek-R1,这一版本支持高达671B 的完整功能。 此外,平头哥的玄铁芯片成功适配 DeepSeek-R1系列的蒸馏模型,进一步拓宽了在 RISC-V 架构 CPU 和边缘计算平台上的应用空间。

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

DeepSeek-R1详细解读!

DeepSeek-R1爆火,今天来详细看下。 论文地址::::现有LLMs在推理任务上的改进主要依赖监督微调(SFT)和后训练(Post-Training)方法,但这些方法需要大量人工标注数据且成本高昂。 OpenAI的o1系列模型虽通过扩展推理链(Chain-of-Thought, CoT)提升了性能,但其测试时扩展仍存在挑战。