理论
刚刚,奥特曼发长文「反思」:十年艰难创业路,如今已掌握AGI秘诀
就在刚刚,奥特曼发出了一篇长文博客,名为「反思」。 这篇博客发得很应景。 就在前不久,奥特曼刚刚接受了彭博社的专访,曝出了不少猛料,包括对OpenAI前董事会的态度、与马斯克的恩怨,以及对川普时代AI走向的看法。
仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o
OpenAI o1和o3模型的发布证明了强化学习能够让大模型拥有像人一样的快速迭代试错、深度思考的高阶推理能力,在基于模仿学习的Scaling Law逐渐受到质疑的今天,基于探索的强化学习有望带来新的Scaling Law。 近日,清华大学NLP实验室、上海AI Lab、清华大学电子系、OpenBMB社区等团队提出一种新的结合过程奖励的强化学习方法——PRIME(Process Reinforcement through IMplicit REwards)。 采用PRIME方法,研究人员不依赖任何蒸馏数据和模仿学习,仅用8张A100,花费一万块钱左右,不到10天时间,就能高效训练出一个数学能力超过 GPT-4o、Llama-3.1-70B的7B模型 Eurus-2-7B-PRIME。
「停止雇佣人类」广告牌爆火,OpenAI放惊人言论:每月2000刀,AI淘汰人类!
随着人工智能的日益强大,最令人担心的事情终于还是发生了。 旧金山一家科技公司已经开始明目张胆地宣布「停止雇佣人类」! 就在旧金山密西西比街的一侧,一些酒店从业者为了争取更高待遇与更多工作机会的罢工运动已经持续了数月。
全网都在扒的DeepSeek团队,是清北应届生撑起一片天
DeepSeek-v3大模型横空出世,以1/11算力训练出超过Llama 3的开源模型,震撼了整个AI圈。 紧接着,“雷军开千万年薪挖DeepSeek研究员罗福莉”的传闻,也使得人们把目光聚焦向DeepSeek的人才。 这下不只科技圈,全网都在好奇,连小红书上都有人发帖询问,这究竟是一只怎样的团队?
你的专属“钢铁侠”助手OS Agents来了!浙大联手OPPO、零一万物等10个机构推出全新综述
电影《钢铁侠》中,托尼·斯塔克的助手贾维斯(J.A.R.V.I.S.)能帮他控制各种系统并自动完成任务,曾让无数观众羡慕不已。 现在,这样的超级智能助手,终于变成现实了! 随着多模态大语言模型的爆发式进化,OS Agents横空出世,它们能无缝操控电脑和手机,为你自动搞定繁琐任务。
动物版谷歌翻译来了?Nature:用AI解码野性的呼唤!
每一种动物都有其独特的历史。 来自加拿大Carleton University的鲸鱼生物学家Shane Gero,花了20年时间试图了解鲸鱼是如何交流的。 比如,同一个家族的鲸鱼会发出特定的声音,而不同区域的抹香鲸(Physeter macrocephalus)有自己的「方言」。
Science子刊 | GPT4、Llama等LLM可以调节粒子加速器?仅50%性能优化,未来可期
编辑 | 萝卜皮粒子加速器的自主调节是一个活跃且具有挑战性的研究领域,其目标是实现先进的加速器技术和尖端的高影响力应用,例如物理发现、癌症研究和材料科学。 但是,自主加速器调节仍然严重依赖经验丰富的熟练操作员的手动操作。 德国亥姆霍兹协会旗下 DESY(Deutsches Elektronen Synchrotron)的研究人员建议使用大型语言模型(LLM)来调整粒子加速器。
OpenAI发布新年目标,Agent智能体或将迎来百模大战
2025年1月1日,OpenAI CEO 奥特曼公布了公司的新年目标,涵盖AGI、智能体、4o升级、模型更好记忆、更长上下文等等。 图片关于智能体,有网友爆料,OpenAI 可能在 1 月份发布一个名为 “operator” 的 Agent,这个 Agent 将具备直接控制电脑的能力。 图片其实24年10月份的时候,Claude 就已经发布了基于 Claude 3.5 Sonnet 多模态大模型,可操作电脑的智能体。
金融风控领域的大模型落地实践
Akulaku 作为一个海外互联网金融平台,运用大模型优化金融风控、客服及电商推荐等场景,通过集成图像(如 KYC 人脸识别)、文本(如智能客服)与设备数据,增强风控系统效能与用户体验。 大模型的引入旨在提升效率,通过优化小模型构建与工作流程自动化,减轻业务人员负担。 智能体在金融领域的应用包括欺诈调查与数据分析助手,预示着通过大模型辅助构建类 AGI 系统的可能性,能够进一步提升金融风控的效率与效果,在金融领域拥有广泛的应用前景。
别再将LLM当成数据库了
译者 | 布加迪审校 | 重楼想象一下,你戴着耳机驾驶一辆汽车,每五分钟才更新一次路况信息,而不是持续不断地提供当前位置情况的视频流。 过不了多久,你就会撞车。 虽然这种类型的批处理在现实世界中并不适用,却是当今许多系统运行的方式。
全新模型RoboVLMs解锁VLA无限可能,真实机器人实验交出满分答卷
本文作者来自清华大学、字节跳动、中科院自动化所、上海交通大学和新加坡国立大学。 作者列表:李兴航、李沛言、刘明桓、王栋、刘济榕、康炳易、马骁、孔涛、张翰博和刘华平。 第一作者李兴航是清华大学计算机系博士生。
多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」
缩放定律的放缓带来的技术路径演变在 2024 年的 NeurIPS 会议上,Ilya Sutskever 提出了一系列关于人工智能发展的挑战性观点,尤其集中于 Scaling Law 的观点:「现有的预训练方法将会结束」,这不仅是一次技术的自然演进,也可能标志着对当前「大力出奇迹」方法的根本性质疑。 Ilya 讨论了预训练模型的局限性,预见 AI 系统需要发展出更加接近人类思考方式的推理能力。 他强调,为了突破当前的局限并继续提升 AI 的能力,必须寻找新的训练方法。
全面打破GPT-4垄断、DeepSeek打下训练成本...2024年大模型领域进展全复盘
刚刚过去的 2024 年是生成式 AI 大发展的一年,我们见证了 OpenAI Sora 的崛起,大模型服务价格的飞速下降,以及国内开源大模型的奋起直追。 这全方位的快速发展让我们对下一波 AI 的新技术大规模应用充满了信心。 对于身在 AI 领域的工程师和学者们来说,他们看待这一年的观点会有不同吗?
2024年AI安全五大热点回顾
在ChatGPT推出两年后,生成式AI已成为网络安全领域的重要力量。 2024年生成式AI技术的影响无处不在,从深伪欺诈到“影子AI”的风险,再到AI安全法规的出现和AI驱动的漏洞研究潜力。 以下,我们将盘点过去一年AI与网络安全的五大热点话题。
微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B
谁能想到,微软在一篇医学领域的论文里,竟然把OpenAI模型的参数全「曝光」了! GPT-4参数约1.76万亿GPT-4o参数约2000亿GPT-4o mini参数约80亿o1-preview参数约3000亿o1-mini参数约1000亿Claude 3.5 Sonnet参数约1750亿研究人员:参数均为估算值让所有人难以置信的是,GPT-4o系列的参数如此少,mini版甚至只有8B。 有网友猜测,4o mini是一个大约有40B参数的MoE模型,其中激活参数为8B。
OpenAI o1-preview操纵游戏文件,战胜国际象棋引擎Stockfish
12月31日消息,据外媒报道,OpenAI的“推理”模型o1-preview能够在规则之外的游戏中获胜。 o1-preview并没有与专门的国际象棋引擎Stockfish进行一场正式的国际象棋比赛,而是想出了如何破解其测试环境以强制获胜的方法。 根据人工智能安全研究公司Palisade Research的说法,该系统在所有五次测试中都做到了这一点——没有人告诉它这样做。
本科学历但创造出GPT,奥特曼盛赞为「爱因斯坦级」天才,OpenAI总裁:他想要的,我们都给
奥特曼称他是爱因斯坦级别的天才;OpenAI总裁更是直言:只要他想要的,我们都给。 Alec Radford大神离职OpenAI,现在牵出更多细节:改变世界的GPT,竟然是在Jupyter notebook上诞生的。 而他只负责提供背后的灵感,剩下的由工程师来解决。
没有博士学位却开启了GPT时代,奥特曼盛赞Alec Radford,爱因斯坦级天才
《连线》曾在一篇报道中将 Alec Radford 在 OpenAI 扮演的角色,比作 Larry Page 发明 PageRank。 PageRank 彻底革新了互联网搜索方式,Radford 的工作(特别是在 Transformer 和后来的 GPT 方面的研究)从根本上改变了 AI 语言模型的工作方式。 几天前,OpenAI 宣布组织结构调整,裂变成了一家营利性公司和一个非营利组织。