OpenAI首席执行官Sam Altman在2025年刚开始就对人工智能的未来发出了大胆的宣言。Altman表示,OpenAI现在对如何创建AGI(通用人工智能)充满信心,并将重点转移到下一个前沿领域:超级人工智能。
OpenAI的最新模型o3于去年12月发布,目前正在进行安全评估,成功通过了领先的AGI基准ARC-AGI挑战。在标准计算条件下,该模型取得了75.7%的高分,更强大的版本达到了87.5%。虽然ARC-AGI测试中的这一里程碑值得注意,但它还不能证实OpenAI已经打开了通往AGI的道路。
ARC的创建者François Chollet分享道:“通过ARC-AGI并不等于实现AGI,事实上,我认为o3还不是AGI。o3在一些非常简单的任务上仍然失败,这表明它与人类智能存在根本差异。”
OpenAI似乎开始完全致力于超级智能的概念,并正在大力投资于这一追求。一个新的团队已经成立,由Ilya Sutskever和Jan Leike领导,专注于超级智能和AGI。它还将投入20%的计算资源来支持这个新团队的工作。
有趣的是,OpenAI的联合创始人Ilya Sutskever于2024年5月离开公司,由Jakub Pachocki接替。自Sutskever离职以来,没有公开宣布他重返OpenAI。据报道,Sutskever在试图罢免Altman担任首席执行官的那场失败运动中发挥了关键作用。这让他作为超级对齐(Superalignment)团队的联合负责人突然出现有点令人惊讶。
OpenAI决定将其应对将超级智能(superintelligent)人工智能与人类价值观相结合的挑战的方法称为超级对齐(Superalignment)。这一术语反映了人工智能界对如何确保人工智能系统在超越人类智能后不会以有害或与人类目标不一致的方式行事的愿景。
那么,AGI和超级智能有什么,为什么它会引起如此多的炒作呢?围绕AGI和超级智能的热议来自它们将彻底改变从科学到日常生活的一切潜力。
虽然对于AGI的确切含义还没有达成共识,但它代表了可以自主执行任何人类任务的计算机或机器。超级智能将走得更远,在各个领域超越人类的能力。
“超级智能将是人类有史以来发明的最具影响力的技术,可以帮助我们解决世界上许多最重要的问题。”OpenAI在一篇介绍超级对齐的文章中分享道。“但超级智能的巨大力量也可能非常危险,可能导致人类被剥夺权力,甚至人类灭绝。虽然超级智能现在似乎还很遥远,但我们相信它可能会在这个十年到来。”
OpenAI的一些战略举措受到了批评,包括解散专注于人工智能安全的团队,导致该公司几名专注于安全的研究人员离职。
Altman关于AGI和超级智能的说法遭到了怀疑。从Altman到OpenAI通往超级智能之路的转变时间表引发了人们的怀疑。不要忘记人工智能的一些基本问题,如幻觉、惊人的高能量需求和犯错的倾向,这引发了人们对该技术是否准备好兑现Altman做出的巨大承诺的担忧。
尽管面临挑战,Altman仍然对OpenAI实现其雄心勃勃目标的能力充满信心。虽然他的愿景是乐观的,但它提出了一个关键问题:OpenAI能否兑现如此高风险的承诺,还是炒作会超过现实?
Altman在他的个人博客中写道:“我们喜欢我们目前的产品,但我们是为了美好的未来而来。”“超级智能工具可以极大地加速科学发现和创新,远远超出我们自己的能力,从而大大增加财富和繁荣。”
Altman强调,人工智能系统通常比人类更聪明,有了超级智能,人工智能只会变得更聪明。
OpenAI雄心勃勃地宣称即将实现AGI,甚至冒险进入超级智能领域,这无疑是大胆的。然而,考虑到该公司过去的成就,很难完全否定。如果OpenAI真的成功实现了AGI,那么变化的速度将是惊人的。它可能会以我们难以想象的方式重塑我们生活的方方面面。