文章列表
OpenAI o1 非 GPT-4o 直接进化,在成本与性能上妥协
9 月 14 日消息,OpenAI 已经推出了新模型 OpenAI o1 的两大变体 ——o1-preview 与 o1-mini,这两款模型都有许多值得深入探讨的内容。人工智能专家西蒙・威利森(Simon Willison)专门发文,深入剖析了这些新模型背后的设计理念与实现细节,揭示了它们在技术上的独特优势与不足。威利森表示,o1 并不是简单的 GPT-4o 直接升级版,而是在强化“推理”能力的同时,做出了成本与性能上的权衡。1. 训练思维链OpenAI 的声明是一个很好的起点:“我们研发了一系列新型人工智能模型
o1 模型完整思维链成 OpenAI 头号禁忌,问多了等着封号吧
警告!不要在 ChatGPT 里问最新 o1 模型是怎么思考的 ——只要尝试几次,OpenAI 就会发邮件威胁撤销你的使用资格。请停止此活动,确保您使用 ChatGPT 时符合我们的使用条款。违反此条款的行为可能导致失去 OpenAI o1 访问权限。大模型新范式 o1 横空出世不到 24 小时,就已经有不少用户反馈收到这封警告邮件,引起众人不满。有人反馈只要提示词里带“reasoning trace”、“show your chain of thought”等关键词就会收到警告。甚至完全避免出现关键词,使用其他手
因类人通用推理、可辅助制作生物武器等因素,OpenAI o1 AI 模型归类为“中等风险”
科技媒体 The Decoder 昨日(9 月 13 日)发布博文,报道称在 OpenAI 自家的“防备框架”(Preparedness Framework)下,将最新发布的 o1 AI 模型归类为“中等风险”(medium risk)。防备框架简介AI在线曾于 2023 年 12 月报道,OpenAI 成立了新的“防备”(Preparedness)团队,并提出“防备框架”指导方针。防备团队将反复评估 OpenAI 最先进、尚未发布的 AI 模型,根据不同类型的感知风险评为四个等级,从低到高依次是“低”、“中”、“
OpenAI ChatGPT AI 聊天机器人新增“/picture”和“/search”指令
OpenAI 扩充 ChatGPT 系统快捷指令,新增“/picture”和“/search”,进一步改善用户的交互体验。AI在线附上操作方法如下:在与 ChatGPT 对话时,只需输入一个“/”(不含双引号),一个便捷的弹出窗口就会显示这些快捷选项。“/picture”该指令会调用 OpenAI 的文生图模型 DALL-E,即使用户没有具体的提示或想法,只需选择 / picture,也能为你生成有趣的图像。“/search”该指令会进入一个新的搜索模式,你输入的任何内容都会被视为搜索查询。即便用户没有输入任何内容
如何判断AI的输出是否正确?三个办法搞定!
在生成式 AI 工具如 ChatGPT 逐渐融入日常工作和生活的今天,很多人都在依赖 AI 来完成各种任务:撰写文案、编程、生成分析报告,甚至是做生活规划。虽然 AI 的应用场景越来越广泛,但它的输出并非每次都能符合预期。很多人在使用 AI 时会碰到这样的问题:AI 生成的内容到底靠不靠谱?它的输出是否可以完全信赖?如何判断 AI 给出的答案是正确的?
作为一名 AI 产品设计师,我也经常需要依赖 AI 工具来完成日常工作。经过无数次与 AI 的互动,我逐渐摸索出了三个简单有效的办法,可以帮助我们快速判断 AI 的
训大模型为啥这么贵?专家:一半以上算力被浪费了
人工智能时代,大模型的发展带来了智能算力需求的大爆发。据估算,自 2012 年以来,AI 模型训练算力需求每 3~4 个月就翻一番,每年训练 AI 模型所需算力增长幅度高达 10 倍。同时,OpenAI 曾在 2020 年提出 Scaling law 定律。该定律指出,大模型的最终性能与计算量、模型参数量及训练数据量的大小密切相关。换言之,若要提升大模型的能力,就需要不断增加模型参数和训练数据量,这就需要部署大规模的训练集群,随着集群规模的不断扩大,训练成本也呈指数级增长。9月13日,在百度智能云举办的媒体技术沙龙
GPT未竟的革命,由o1接棒:或是LLM研究最重要的发现
天下武功唯快不破,但 OpenAI 不走寻常路,新出的 o1 系列宣告天下:我们更慢,但更强了。 o1 要花更多的时间思考问题,再做出反应,但在复杂推理层面直接窜了几个档位。 在国际数学奥林匹克 (IMO) 资格考试中,GPT-4o 仅正确解决了 13% 的问题,而 o1 得分为 83%。
OpenAI o1深夜炸场,核心贡献者有哪些?我们看到了大量华人的名字
这篇文章系统梳理了 OpenAI o1模型背后的核心人才。今天凌晨,OpenAI 震撼发布 o1 大模型,酝酿已久的「草莓」终于面世。新模型能够进行复杂推理,具备真正的通用推理能力,可解决比以往的科学、代码和数学模型所能处理的更难的问题。它在一系列高难基准测试中展现出了超强实力,相比 GPT-4o 有巨大提升,甚至能在博士级别的科学问答环节上超越人类专家(详情请参见《刚刚,OpenAI 震撼发布 o1 大模型!强化学习突破 LLM 推理极限》)。虽然 o1 很强,但有趣的是,它并不会尝试去推理和解答「黎曼猜想」这类
元象发布中国最大MoE开源大模型 落地应用登顶港台榜
元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B,加速AI应用低成本部署,将国产开源提升至国际领先水平。 该模型总参数255B,激活参数36B,达到100B模型性能的「跨级」跃升,同时训练时间减少30%,推理性能提升100%,使每token成本大幅下降。 元象「高性能全家桶」系列全部开源,无条件免费商用,让海量中小企业、研究者和开发者能按需选择。
刚刚,OpenAI震撼发布o1大模型!强化学习突破LLM推理极限
大模型领域的技术发展,今天起再次「从 1 开始」了。大语言模型还能向上突破,OpenAI 再次证明了自己的实力。北京时间 9 月 13 日午夜,OpenAI 正式公开一系列全新 AI 大模型,旨在专门解决难题。这是一个重大突破,新模型可以实现复杂推理,一个通用模型解决比此前的科学、代码和数学模型能做到的更难的问题。OpenAI 称,今天在 ChatGPT 和大模型 API 中新发布的是该系列中的第一款模型,而且还只是预览版 ——o1-preview。除了 o1,OpenAI 还展示了目前正在开发的下次更新的评估。o
安卓版谷歌 Gemini Live 免费上线,开启在线 AI 语音畅聊
科技媒体 9to5Google 昨日(9 月 12 日)发布博文,报道谷歌在 1 个月前面向 Advanced 订阅用户推出后,正逐步面向所有安卓用户免费开放 Gemini Live。AI在线曾于 8 月报道,谷歌在 Pixel 9 系列手机发布会上,发布了 Gemini Live,该服务提供了一种移动对话体验,让用户和 Gemini 展开自由流畅的对话。Gemini Live 可以说是对标 OpenAI ChatGPT 最新上线的 Advanced Voice 模式(限量 Alpha 测试),采用了增强型语音引擎
文生图 AI Midjourney 雄心:7.0 版未来 1-2 月登场、开发新图像编辑器、探索 3D 系统、踏足硬件领域
科技媒体 The Decoder 昨日(9 月 12 日)发布博文,报道称在最近的“Office Hours”活动中,Midjourney 创始人兼首席执行官 David Holz 在 Discord 分享了当前项目的最新进展,并回答了社区的提问。Midjourney 7.0 版本Holz 更新了 Midjourney 7.0 版本时间表,表示将会在未来 1-2 月内发布。让更多人体验 MidjourneyHolz 表示公司并不急于推出新的 AI 模型,而是提高现有技术的易用性,让工具深入融入到专业人士的日常工作中
安卓和 iOS 版谷歌 Gemini AI 应用新增 Gems 及管理器
科技媒体 testingcatalog 昨日(9 月 12 日)发布博文,报道称 iOS 和安卓版 Gemini 应用新增支持 Gem 和 Gem 管理器。用户现可在主屏幕上查看常规聊天及与 Gems 相关的聊天,此外用户可进入 Gem 管理器,界面采用标签式布局,首屏展示所有 Gems,分为用户自定义 Gems 和谷歌预制的 Gems 两部分。用户如果要编辑或创建新 Gems,用户会被引导打开网页版,该网页版会在同一应用内的网页视图中打开。Gemini 简介AI在线附上官方介绍如下:Gemini 应用是一款实验性
效率暴涨!100万人都在关注的多合一 AI 搜索神器 SeekAll!
大家好我是花生~
随着 AI 技术的发展成熟,我现在查资料基本都在用 AI 搜索引擎,比如 KimiChat、 腾讯元宝、Perplexity AI 等,它们真的极大提高了我的信息获取效率。不过现在各种 AI 搜索引擎太多了,为了获得更全面的信息,我常常不得不在多个引擎之间来回切换使用,有时也会觉得麻烦。
但最近我发现了一款宝藏工具刚好可以解决我的这个烦恼,它将多个 AI 搜索引擎及知识平台都聚合到了一起,我只需要发送一次提问,就能同时获得多个网站的答案,简直不要太方便!今天就为大家详细介绍这款多合一的 AI 搜索
OpenAI o1 模型登场:开启 AI 通用复杂推理新篇章,国际奥数正确率 83%
感谢OpenAI 传闻中的“草莓”(Strawberry)AI 模型现已面世,正式名称为“o1”,是该公司首款具备“推理”能力的模型。o1 和 o1-miniOpenAI 表示对该模型进行特殊训练,能够比人类更快地回答更复杂的问题。与之同时发布的还有 o1-mini,一个更小、成本更低的版本。OpenAI 表示 o1 模型的发布,是其迈向类人 AI 宏伟目标的关键一步。AI在线注:o1 模型目前处于“预览”阶段,官方强调该模型相关开发尚处于初期阶段,相比较 GPT-4o 模型,使用成本更高且速度更慢,但在编写代码和
产品+AI如何设计?大厂高手总结了这3种方案!
一、前言
当我们一次次被 AI 技术带来的变革所惊艳,当 ChatGPT 一次次宣布其能力已经突破了人类的想象,你是否注意到现有产品与 AI 融合的新趋势?值得注意的是,新技术的出现也一定带来了新的交互体验。本文将以多种产品场景为例,梳理 PC 端多种主流的 AI 融合形态,希望能给大家带来启发。二、多元场景下的主流 AI 形态
目前主流 AI 产品有如下 3 种主要形态,分别为沉浸式的 AI 智能体(Agent)、伴随式的 AI 副驾驶(Co-pilot)、嵌入式的 AI 场景化嵌入(Embedding)。这 3
刚刚,GPT-4o关键人物离职创业!曾在OpenAI最早提出构建「Her」
OpenAI 最早提出构建「Her」的那个人,刚刚宣布离职创业了。今年 5 月份,OpenAI 发布了震惊世界的 GPT-4o。这个模型可以跨越文本、视觉和音频,以一种非常自然的形式和人类语音对话,延迟低到与人类在对话中的响应时间相似。而且,它允许用户随时打断,并能感知和回应用户的情绪。因此,该模型发布后,很多人说科幻电影《Her》中的场景照进了现实。此次离职的 Alexis Conneau 就是 GPT-4o 项目的关键人物之一。离职前,他是 OpenAI 音频 AGI 研究负责人,也是 OpenAI 最早提出
AI出图被说油腻没特色?这个 Midjourney Niji 参数帮你一招解决!
大家好我是花生~
前不久才为大家介绍了 Midjourney --p (personalize 个性化)参数的神奇用法,没想到前两天 niji 6 模型也开始支持 --p 参数了,我简单测试了一下感觉非常不错,它不仅能让图像风格更加多样独特,连构图、细节质感也比原来好了不少,下面一起看看如何使用它吧~
了解 v6.1 的 --p 个性化参数的用法:一、Niji 6 的 --p 个性化参数
熟悉 Midjourney 的小伙伴应该都非常喜欢 Niji 模型,相比标准的 v6.0/v6.1,最新的 niji 6 在生成