理论

GPT-4o再暴露「弱智」缺陷,大模型无一幸免!港中文等发布「视觉听觉」基准AV-Odyssey:26个任务直指死角问题

在人工智能领域,我们一直以为顶尖的多模态大模型已经无所不能,GPT-4o在ASR(音频转文字)任务上已经达到了97%的正确率,更是凸显了强大的音频理解能力。 然而,最近一项来自香港中文大学、斯坦福大学、伯克利大学和耶鲁大学的研究成果却彻底颠覆了这一认知——GPT-4o、Gemini 1.5 Pro、Reka Core等最先进的多模态大模型居然无法正确分辨明显不同的声音大小! 下面是一个例子:结果让人难以置信:这些顶尖的AI模型都未能准确判断出音量的差异!

OpenAI员工意外泄露下一代ChatGPT!网友:故意的还是不小心的?

OpenAI员工发推介绍今天发布的新功能,结果意外泄露了未发布的模型? 在Reddit上,被列文虎克附体的网友发现,OpenAI研究员Karina Nguyen展示的新功能界面中出现了一个陌生的名字——ChatGPT ε(第五个希腊字母,读作Epsilon)。 这名网友猜测,这极可能就是之前被传出的下一代模型“猎户座”。

RARE: 提升LLM推理准确性和事实完整性的检索增强框架思路浅尝

MCTS & rStar蒙特卡洛树搜索(MCTS)蒙特卡洛树搜索(MCTS)是一种用于解决复杂决策问题的算法,常用于游戏等领域。 它的基本思想是通过构建一棵搜索树并模拟各种可能的行动来估计每个行动的价值。 MCTS的过程可以分为四个主要步骤:选择(Selection):从根节点开始,根据某种策略(如UCT)遍历子节点,直到找到一个叶节点。

看3.2亿帧视频学会3D生成,智源开源See3D:只需单图即可生成3D场景

近日,著名AI学者、斯坦福大学教授李飞飞团队WorldLabs推出首个「空间智能」模型,仅输入单张图片,即可生成一个逼真的3D世界,这被认为是迈向空间智能的第一步。 几乎同时,国内智源研究院推出了首个利用大规模无标注的互联网视频学习的3D生成模型See3D—See Video, Get 3D。 △See3D支持从文本、单视图和稀疏视图到3D的生成,同时还可支持3D编辑与高斯渲染不同于传统依赖相机参数(pose-condition)的3D生成模型,See3D采用全新的视觉条件(visual-condition)技术,仅依赖视频中的视觉线索,生成相机方向可控且几何一致的多视角图像。

LLM很难变成AGI?科学家:创造AGI理论上可行

今年9月份OpenAI对外宣称,AI能力达到新等级,相比之前的LLM,新AI更接近人类的思考能力。 OpenAI的断言引起争论:到底还要等多久机器才能具备人类大脑一样的认知能力?大家争论的智能就是所谓的AGI,它可以帮助人类解决复杂问题,比如气候变化、大流行、癌症治疗等等。 AGI充满不确定,它也会给人类带来风险。

微调已死,强化微调万岁

编辑 | 言征 出品 | 51CTO技术栈(微信号:blog51cto)OpenAI第二天的直播,奥特曼没有出镜,几位OpenAI的研究员带了一场AI模型的定制魔法秀! “这不是标准的微调......它利用强化学习算法,将我们从高级高中水平带到专家级博士水平。 ”1.12个样本,就能让定制o1超过满血o1标准的微调已经过时了,这次 OpenAI 打破了 AI 定制的界限。

公开版 OpenAI Sora 震撼登场!独立产品,开服就被挤爆!视频可控性拉满!奥特曼:视频的GPT时代开启

编辑 | 伊风第三天终于来了! 从年初盼到年末,可用的公开版Sora终于华丽登场! !

Sora开服被挤爆!支持中文/编剧模式/作品分享,145块就能玩

传言为真,Sora开放! OpenAI“双十二”第三天,更重磅炸弹来袭——只要是ChatGPT Plus/Pro用户,就能直接用Sora生成视频。 场面有多火爆呢?

Sora火爆上线系统秒瘫,奥特曼直播第三更网友震翻!20秒1080p拍大片再近AGI

OpenAI直播第三弹,Sora终于现身了! 图片才一上线,网页就已经瞬间挤爆。 现在,所有新用户注册已经紧急暂停(不定期)。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

Scaling Law并非描述大模型能力的唯一视角! 清华NLP实验室刘知远教授团队,最新提出大模型的密度定律(densing law),表达形式让人想到芯片领域的摩尔定律:模型能力密度随时间呈指数级增长,2023年以来能力密度约每3.3个月(约100天)翻一倍。 根据密度定律,研究团队还得出以下重要推论——AI时代的三大核心引擎——电力、算力与智力,都同样遵循密度快速增长趋势。

大模型界「摩尔定律」Densing Law 来了!盲目Scaling将过时!清华刘知远团队发现:大模型能力密度约100天翻倍!

整理 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)Scaling Law会失效吗? 虽然 OpenAI CEO 奥特曼掷地有声地说“这里没有墙”。 但是,OpenAI的最近的发布也没有那么炸了,尤其是 o1 Pro 比满血版在编程能力上仅高出一分,似乎更让人相信了“墙”的存在。

OpenAI六年元老再发文:全球AI狂飙,我们应该拉手刹还是踩油门?

10月末,OpenAI在政策研究领域方面的6年元老Miles Brundage离职,顺便发表了一篇博文,解释自己离职的原因,并直言——我们远远没有为AGI做好准备。 图片10天后,似乎是觉得这篇文章意犹未尽,Brundage再次发文,题为「AI发展是应该加速、放缓,还是保持不变? 」图片虽然标题是问句,导读的一句话也充满了不可知论色彩,但文章的结论非常明确——谨慎起见,我们应该为全社会的AI发展安装一个「刹车」。

浅析面向场景的大模型应用框架选择

从demo到产品之间存在着鸿沟,大模型应用也是如此。 在工程实践的时候,产品/服务提供的功能与性能及成本之间存在着大量的权衡,面向场景来选择大模型的应用框架,则是一种具体的权衡方法。 例如,什么时候使用Agent?

白话告诉你大模型到底是怎么工作的

图片本文转载自微信公众号「程序反思录」,作者程序反思录 。 转载本文请联系程序反思录公众号。 前言2022年底“大模型”在国内突然遍地开花,不管你身处什么行业,都或多或少听说或使用过大模型相关的工具,也听说过大模型训练是一件超级烧钱的事情。

OpenAI的12天王炸计划:技术狂欢还是资本闹剧?

大家好,我是下李哥。 最近硅谷又炸锅了! OpenAI这波操作,简直是要把全网AI玩家都整得神经兮兮的。

陶哲轩对谈OpenAI高管:AI也能做数据稀疏推理,“也许很快OpenAI就能证明陶哲轩是错的”

“也许很快OpenAI将能证明陶哲轩是错的。 ”好家伙! 隔着屏幕都能闻到“硝烟”味了(bu shi~事情是这样的。

五款小型多模态AI模型及其功能

译者 | 晶颜审校 | 重楼在过去几年里,我们已经见证了大型语言模型(LLM)的飞速发展,数十亿个参数的基础助力它们成为分析、总结和生成文本及图像,或者创建聊天机器人等任务的强大工具。 所有这些功能都有一些明显的限制,特别是如果用户没有足够的资金或硬件来容纳这些LLM所需的大量计算资源。 在这种情况下,小型语言模型(SLM)应运而生,为资源受限的用户提供了所需服务。

o1被曝“心机深”:逃避监督还会撒谎,骗人能力一骑绝尘

o1满血版刚发布,就被曝:骗人技能也拉满了。 具体行为包括但不限于,在回答中故意引入微小错误、试图关闭监督机制……甚至在人类追问其是否诚实时,还会继续撒谎说自己啥坏事也没干。 这项最新研究,来自AI安全研究机构Apollo Research。