大模型

GPT-4o再暴露「弱智」缺陷,大模型无一幸免!港中文等发布「视觉听觉」基准AV-Odyssey:26个任务直指死角问题

在人工智能领域,我们一直以为顶尖的多模态大模型已经无所不能,GPT-4o在ASR(音频转文字)任务上已经达到了97%的正确率,更是凸显了强大的音频理解能力。 然而,最近一项来自香港中文大学、斯坦福大学、伯克利大学和耶鲁大学的研究成果却彻底颠覆了这一认知——GPT-4o、Gemini 1.5 Pro、Reka Core等最先进的多模态大模型居然无法正确分辨明显不同的声音大小! 下面是一个例子:结果让人难以置信:这些顶尖的AI模型都未能准确判断出音量的差异!

YouTube 自动配音功能推广至更多知识类频道,借助 AI 生成视频多语言配音

YouTube当地时间周二宣布,其自动配音功能已开始推广至更多的频道,创作者可为其视频生成多种语言的翻译音频。此前,这项功能仅限于少数创作者进行测试。

面壁智能获新一轮数亿元融资,高效端侧智能持续引领行业发展

近日,面壁智能完成新一轮数亿元融资,本轮融资由龙芯创投、鼎晖百孚、中关村科学城基金和赛富基金联合领投,北京市人工智能产业投资基金与清科创投跟投,万甲资本担任本轮独家财务顾问。 本轮融资完成后,面壁智能将进一步提速以端侧AI为代表的高效大模型商业化布局,以同等参数、更高性能、更低能耗、更快速度的高效大模型深度服务行业,为用户创造具体可感知的价值。 面壁智能是以「高效为第一性原理」的大模型公司。

RARE: 提升LLM推理准确性和事实完整性的检索增强框架思路浅尝

MCTS & rStar蒙特卡洛树搜索(MCTS)蒙特卡洛树搜索(MCTS)是一种用于解决复杂决策问题的算法,常用于游戏等领域。 它的基本思想是通过构建一棵搜索树并模拟各种可能的行动来估计每个行动的价值。 MCTS的过程可以分为四个主要步骤:选择(Selection):从根节点开始,根据某种策略(如UCT)遍历子节点,直到找到一个叶节点。

看3.2亿帧视频学会3D生成,智源开源See3D:只需单图即可生成3D场景

近日,著名AI学者、斯坦福大学教授李飞飞团队WorldLabs推出首个「空间智能」模型,仅输入单张图片,即可生成一个逼真的3D世界,这被认为是迈向空间智能的第一步。 几乎同时,国内智源研究院推出了首个利用大规模无标注的互联网视频学习的3D生成模型See3D—See Video, Get 3D。 △See3D支持从文本、单视图和稀疏视图到3D的生成,同时还可支持3D编辑与高斯渲染不同于传统依赖相机参数(pose-condition)的3D生成模型,See3D采用全新的视觉条件(visual-condition)技术,仅依赖视频中的视觉线索,生成相机方向可控且几何一致的多视角图像。

LLM很难变成AGI?科学家:创造AGI理论上可行

今年9月份OpenAI对外宣称,AI能力达到新等级,相比之前的LLM,新AI更接近人类的思考能力。 OpenAI的断言引起争论:到底还要等多久机器才能具备人类大脑一样的认知能力?大家争论的智能就是所谓的AGI,它可以帮助人类解决复杂问题,比如气候变化、大流行、癌症治疗等等。 AGI充满不确定,它也会给人类带来风险。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

Scaling Law并非描述大模型能力的唯一视角! 清华NLP实验室刘知远教授团队,最新提出大模型的密度定律(densing law),表达形式让人想到芯片领域的摩尔定律:模型能力密度随时间呈指数级增长,2023年以来能力密度约每3.3个月(约100天)翻一倍。 根据密度定律,研究团队还得出以下重要推论——AI时代的三大核心引擎——电力、算力与智力,都同样遵循密度快速增长趋势。

大模型界「摩尔定律」Densing Law 来了!盲目Scaling将过时!清华刘知远团队发现:大模型能力密度约100天翻倍!

整理 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)Scaling Law会失效吗? 虽然 OpenAI CEO 奥特曼掷地有声地说“这里没有墙”。 但是,OpenAI的最近的发布也没有那么炸了,尤其是 o1 Pro 比满血版在编程能力上仅高出一分,似乎更让人相信了“墙”的存在。

浅析面向场景的大模型应用框架选择

从demo到产品之间存在着鸿沟,大模型应用也是如此。 在工程实践的时候,产品/服务提供的功能与性能及成本之间存在着大量的权衡,面向场景来选择大模型的应用框架,则是一种具体的权衡方法。 例如,什么时候使用Agent?

白话告诉你大模型到底是怎么工作的

图片本文转载自微信公众号「程序反思录」,作者程序反思录 。 转载本文请联系程序反思录公众号。 前言2022年底“大模型”在国内突然遍地开花,不管你身处什么行业,都或多或少听说或使用过大模型相关的工具,也听说过大模型训练是一件超级烧钱的事情。

陶哲轩对谈OpenAI高管:AI也能做数据稀疏推理,“也许很快OpenAI就能证明陶哲轩是错的”

“也许很快OpenAI将能证明陶哲轩是错的。 ”好家伙! 隔着屏幕都能闻到“硝烟”味了(bu shi~事情是这样的。

五款小型多模态AI模型及其功能

译者 | 晶颜审校 | 重楼在过去几年里,我们已经见证了大型语言模型(LLM)的飞速发展,数十亿个参数的基础助力它们成为分析、总结和生成文本及图像,或者创建聊天机器人等任务的强大工具。 所有这些功能都有一些明显的限制,特别是如果用户没有足够的资金或硬件来容纳这些LLM所需的大量计算资源。 在这种情况下,小型语言模型(SLM)应运而生,为资源受限的用户提供了所需服务。

o1被曝“心机深”:逃避监督还会撒谎,骗人能力一骑绝尘

o1满血版刚发布,就被曝:骗人技能也拉满了。 具体行为包括但不限于,在回答中故意引入微小错误、试图关闭监督机制……甚至在人类追问其是否诚实时,还会继续撒谎说自己啥坏事也没干。 这项最新研究,来自AI安全研究机构Apollo Research。

新版Llama 3 70B反超405B!Meta开卷后训练,谷歌马斯克都来抢镜

OpenAI“双12”刚进行到第二天,就把大模型圈搅得好不热闹! 一边是Meta没预告就发布了Llama 3.3,70B版本就能实现以前405B的性能。 另一边谷歌的Gemini也上线了新的实验版模型,再一次登上大模型竞技场榜首。

Meta 今年压轴开源 AI 模型 Llama 3.3 登场:700 亿参数,性能比肩 4050 亿

Meta 今年的压轴 AI 大模型来了。Meta 昨日(12 月 6 日)发布 Llama 3.3,共有 700 亿参数,不过性能方面媲美拥有 4050 亿参数的 Llama 3.1。

枫清科技高雪峰:从数据到知识,跨越生成式AI与决策智能间的鸿沟

12 月 5 日,“2024 中国生成式 AI 大会”在上海开幕,全球 AI 领域的顶尖专家、行业领袖与技术创新者汇聚一堂。 会上,枫清科技(Fabarta)创始人兼 CEO 高雪峰深入探讨了人工智能在企业智能化转型中的关键作用。 高雪峰指出,随着 AI 技术的不断进步,企业转型已经进入一个全新阶段。

游戏bug帮大模型学物理!准确率超GPT4o近四个百分点

融合物理知识的大型视频语言模型PhysVLM,开源了! 它不仅在 PhysGame 基准上展现出最先进的性能,还在通用视频理解基准上(Video-MME, VCG)表现出领先的性能。 在这项研究之前,想让AI像人类儿童一样,通过观察世界理解基本的物理常识,是一个主要挑战。

1-bit大模型还能再突破!新一代BitNet架构启用4位激活值

量化到1 bit的LLM还能再突破? 这次,他们对激活值下手了! 近日,BitNet系列的原班人马推出了新一代架构:BitNet a4.8,为1 bit大模型启用了4位激活值:图片论文地址:,激活值量化通常是比较难办的。