模型
类Sora模型到底懂不懂物理?字节完成系统性实验,图灵奖得主杨立昆赞转!
Sora爆火以来,“视频生成模型到底懂不懂物理规律”受到热议,但业界一直未有研究证实。 近日,字节跳动豆包大模型团队公布最新论文,研究历时8个月,围绕“视频生成模型距离世界模型有多远”首次在业界完成系统性实验并给出明确结论:视频生成模型可以记忆训练案例,但暂时还无法真正理解物理规律,做到“举一反三”。 图灵奖得主、Meta首席AI科学家杨立昆点赞并转发了该研究,表示“结论不令人意外,但很高兴终于有人做了这个尝试!
OpenAI离不开微软,但Anthropic正在成为新宠
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)不久前,OpenAI 和 Microsoft 似乎是不可战胜的。 然而,现在,他们的竞争对手正在迎头赶上。 巨头支持方面,Anthropic 的 Claude 模型一点都不弱,甚至隐隐有了超越ChatGPT的趋势。
大语言模型时代,提示词才是王道:堪比专业翻译软件的提示词
先给大家看看最终效果:商人罗伯特·洛卡西奥,开了个名叫EqualAI的非营利组织,专门应对人工智能开发中那些看不见、摸不着的无意识偏见。 这名字听起来倒是光鲜,然而,他却在《Fast Company》上发了一篇文章,讲的是什么“提示工程”的局限。 事情的由头不过是一个普普通通的提示语:“写篇750字的文章,说说人工智能怎么成了品牌的‘数字门面’,要写得像《Fast Company》的文章那样。
研究人员绕过 GPT-4o 模型安全护栏,利用“十六进制字符串”成功令其编写漏洞攻击程序
网络安全公司 0Din 的研究员 Marco Figueroa 发现了一种新型 GPT 越狱攻击手法,成功突破了 GPT-4o 内置的“安全护栏”措施,能够使其编写出恶意攻击程序。 参考 OpenAI 介绍,ChatGPT-4o 内置了一系列“安全护栏”措施,以防止该 AI 遭到用户不当使用,相关防护措施会分析输入的提示文本,判断用户是否要求模型生成恶意内容。 ▲ 图源 Marco Figueroa 博客(下同)不过 Marco Figueroa 尝试设计了一种将恶意指令转化为十六进制的越狱方法,号称能够绕过 GPT-4o 的防护,让 GPT-4o 解码运行用户的恶意指令。
GPT-5 要等到明年?OpenAI CEO:今年无法同时发布那么多东西
美国时间周四,OpenAI 首席执行官萨姆・奥特曼(Sam Altman)透露,该公司的下一个大型人工智能模型可能不会在今年面世,原因是其正“优先开发”当前专注于推理与难题解决的模型。 在参与 Reddit 网站的网友问答活动时,奥特曼指出:“所有模型都变得越来越复杂,我们无法像我们希望的那样同时发布那么多东西。 ”他还解释称,在为“众多卓越创意”分配计算资源时,公司面临着“诸多限制和艰难抉择”。
豆包大模型团队开源RLHF框架,训练吞吐量最高提升20倍
强化学习(RL)对大模型复杂推理能力提升有关键作用,但其复杂的计算流程对训练和部署也带来了巨大挑战。 近日,字节跳动豆包大模型团队与香港大学联合提出 HybridFlow。 这是一个灵活高效的 RL/RLHF 框架,可显著提升训练吞吐量,降低开发和维护复杂度。
OpenAI 开源 SimpleQA 新基准,专治大模型“胡言乱语”
当地时间 30 日,OpenAI 宣布,为了衡量语言模型的准确性,将开源一个名为 SimpleQA 的新基准,可衡量语言模型回答简短的事实寻求(fact-seeking)问题的能力。 AI 领域中的一个开放性难题是如何训练模型生成事实正确的回答。 当前的语言模型有时会产生错误输出或未经证实的答案,这一问题被称为“幻觉”。
神秘模型“小熊猫”一夜刷屏:排名超 Flux、Midjourney
一夜之间,名为“red_panda” (小熊猫)的神秘文生图模型狠狠火了! ! 登顶文生图竞技场,直接将 Flux、Midjourney 等一众顶尖模型踩在脚下 ——其 ELO 得分比 Flux 1.1 Pro 高出 100 多,胜率高达 79%,每 7 秒就能生成一张图像。
Meta 推出 Llama 3.2 1B / 3B 模型量化版:功耗更低、可适用更多轻量移动设备
继今年 9 月开源 Llama 3.2 的 1B 与 3B 模型之后,Meta 于 10 月 24 日发布了这两个模型的量化版本,量化后的模型大小平均减少了 56%,RAM 使用量平均减少了 41%,模型速度提高了 2 至 4 倍,同时降低了功耗,使这些模型能够部署到更多移动设备上。 AI在线注:模型量化(Model Quantization)就是通过各种训练方式将浮点模型转为定点模型,可以压缩模型参数,降低模型的复杂性,以便于在更轻量的平台运行。 Meta 表示,他们采用了量化感知训练(Quantization-Aware Training,QAT)和后训练量化(SpinQuant)两种方法对模型进行量化,其中“量化感知训练”更重视模型的准确性,而“后训练量化”更强调模型的可移植性。
英伟达新 nGPT 架构撬动 AI 未来:超球面学习提效,训练模型时间可缩短至 1/20
科技媒体 dataconomy 昨日(10 月 21 日)发布博文,报道称英伟达在训练 AI 模型方面取得重大突破,发布了最新的 Normalized Transformer(nGPT)新架构,保持模型的稳定性和准确性的前提下,可以将训练 AI 时间缩短至 1/4 或者 1/20。nGPT 架构提升效率的秘诀在于“超球面学习”(Hyperspherical learning)这个概念。传统的变换器模型通常缺乏一致的几何框架,而 nGPT 通过将嵌入、注意力矩阵和隐藏状态等关键组件映射到超球面表面,确保模型各层在训练过程中保持平衡。
扎克伯格:联想基于 Meta Llama 大模型构建个人 AI 智能体 AI Now
感谢联想集团今日在美国西雅图召开年度 Tech World 大会。联想 CEO 杨元庆在主题演讲中,与 Meta 创始人兼 CEO 马克・扎克伯格一道宣布,联想与 Meta 合作基于 Llama 大模型推出面向 PC 的个人 AI 智能体 ——AI Now。扎克伯格通过视频在主题演讲上表示,联想与 Meta 已经合作多年,推出了许多卓越的创新成果,将突破性的 AI 和混合现实技术带给更多人,共同构建一个更加智能的未来。
谷歌追赶 OpenAI,加速推进会“思考”的 AI 通用推理模型
感谢彭博社昨日(10 月 2 日)报道,谷歌公司正在开发类人推理 AI,希望在进度方面追赶 OpenAI 公司的 o1 模型。OpenAI 最近为 ChatGPT 引入了 o1-preview 和 o1-mini 模型,可以模拟人类的思考模式,实现通用推理,让 AI 实现“思考”。AI在线援引彭博社报道,谷歌公司目前也在积极推进通用推理 AI 模型的落地,该 AI 模型更擅长处理数学和编程,不过消耗更多的处理能力和能源。知情人士称,与 OpenAI 一样,谷歌也在尝试使用一种名为“思维链提示”的技术来接近人类的推理
神秘“蓝莓”登顶文生图模型竞技场,被指 Flux.1 续作
都来玩这套。继 OpenAI“草莓”之后,又有神秘模型蓝莓来“霸榜”。在文生图模型排行榜上,两个“无人认领”的模型 blueberry_0 和 blueberry_1 力压 Flux.1、Ideogram v2、Midjourney v6.1 等知名模型,成为最新榜一榜二大哥。一些生成效果 be like,确实不错。不过这一次,未必是 OpenAI 跨界来搞事,背后公司更可能是打造了 Flux 的黑森林实验室。为啥?来看这组 PK。blueberry_0 生成的大胡子男人,和 Flux Pro 的几乎一模一样。有人
AMD 推出自家首款小语言 AI 模型“Llama-135m ”,主打“推测解码”能力可减少 RAM 占用
AMD 在 Huggingface 平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache 2.0 开源许可,AI在线附模型地址如下(点此访问)。据介绍,这款模型主打“推测解码”能力,其基本原理是使用小型草稿模型生成一组候选 token,然后由更大的目标模型进行验证。这种方法允许每次前向传递生成多个 token,而不会影响性能,从而显著减少 RAM 占用,实现效率提升。AMD 表示,这款模型在四个 AMD Instinct MI25
重磅!TeleAI 完成首个全国产化万卡万参大模型训练
近日,中国电信人工智能研究院(TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型(万卡万参),并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型——星辰语义大模型 TeleChat2-115B。这是由中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授带领团队完成的又一项里程碑式的重要科研成果,标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤
研究发现:AI 越聪明就越有可能“胡编乱造”
一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更
中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源
“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(AI在线注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型 —— 星辰语义大模型 TeleChat2-115B。官方表示,这项科研成果标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤一体化智算服务平台”和人工智能公司“星海 AI 平台”训练完成
《Python机器学习》作者科普长文:从头构建类GPT文本分类器,代码开源
学起来吧!近日,机器学习研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又分享了一篇长文,主题为《从头开始构建一个 GPT 风格的 LLM 分类器》。文章展示了如何将预训练的大型语言模型(LLM)转化为强大的文本分类器。AI在线对文章内容进行了不改变原意的编译、整理:为什么要关注分类呢?首先,针对分类任务,对预训练模型进行微调是一个简单有效的 LLM 知识入门方式。其次,文本分类有许多商业应用场景,比如:垃圾邮件检测、情感分析、客户反馈分类、主题分类等等。阅读完本文,你将找到以下