文章列表
端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]
LeCun批评o1根本不像研究,Noam Brown回怼:已发表的研究都是废话
图灵奖三巨头之一 Yann LeCun 又和别人吵起来了,这次是 Noam Brown。Noam Brown 为 OpenAI o1 模型的核心贡献者之一,此前他是 Meta FAIR 的一员,主导了曾火遍一时的 CICERO 项目,在 2023 年 6 月加入 OpenAI 。这次吵架的内容就是围绕 o1 展开的。众所周知,从 AI 步入新的阶段以来,OpenAI 一直选择了闭源,o1 的发布也不例外。这也引来了广大网友的吐槽,干脆叫 CloseAI 算了,反观 Meta,在开源领域就做的很好,o1 的发布,更
消息称 OpenAI CEO 阿尔特曼遭台积电高管嘲讽:7 万亿美元造芯计划太荒谬了
《纽约时报》上周的一篇报道揭露了 OpenAI 首席执行官萨姆・阿尔特曼在去年访问亚洲期间与多家芯片制造商高层会谈的内幕,报道称,阿尔特曼提出的巨额投资计划遭到了台积电高管的强烈质疑,他们认为这个想法太荒谬了,以至于他们将阿尔特曼戏称为“播客兄弟(podcasting bro)”。图源 Pexels阿尔特曼计划投资 7 万亿美元(AI在线备注:当前约 48.94 万亿元人民币)建设 36 个新的芯片制造工厂和数据中心,以推动人工智能的发展。然而,台积电高管认为这一计划过于激进,且风险极高。再增加几座芯片制造厂都已经
神秘“蓝莓”登顶文生图模型竞技场,被指 Flux.1 续作
都来玩这套。继 OpenAI“草莓”之后,又有神秘模型蓝莓来“霸榜”。在文生图模型排行榜上,两个“无人认领”的模型 blueberry_0 和 blueberry_1 力压 Flux.1、Ideogram v2、Midjourney v6.1 等知名模型,成为最新榜一榜二大哥。一些生成效果 be like,确实不错。不过这一次,未必是 OpenAI 跨界来搞事,背后公司更可能是打造了 Flux 的黑森林实验室。为啥?来看这组 PK。blueberry_0 生成的大胡子男人,和 Flux Pro 的几乎一模一样。有人
2024 九月工具合集!6 款不容错过的免费 AI 神器
大家好我是花生~
今天我们继续 AI 效率神器的第 11 期,一起来看看吧~
上期回顾:一、抠图神器 Object Cutter
网站直达:
Object Cutter 是一款在线免费的抠图工具,它的特点是可以通过文本以及选框指定需要抠取的内容。这样的好处是即使图像中有多个对象,也可以轻松指定到我们想要的那一个,免去了手动选取的麻烦,非常方便。而且抠图的效果也很精细,很小的缝隙也能处理。
使用时在原图顶部的「By prompt」和「By bounding box」中切换不同模式,然后在文本框内填写需要抠取的内容,
一键出爆款!如何用 Coze 搭建图文生成+排版一体化工作流?
一、完整工作流拆解,一张图看懂
最终会生成的内容:4 张图片(1 张封面页,3 张内容页),如下图:我们要实现上图工作流,需要先搭建「2 个图像流,1 个工作流,1 个卡片,1 个 Bot」,如下所示:二、图像流创建:封面页
通过搭建「图像流」来生成下图这张封面:图像流拆解:1. 图像流:创建输入「名称、描述」,点击「确认」,名称可命名为「xhs_cover_page」,如下图:点击「确认」后,进入图像流编辑页面,默认有 2 个节点:「开始、结束」,如下图:2. 封面页元素拆解配置
「封面页」元素拆解, 共 8 个
AMD 推出自家首款小语言 AI 模型“Llama-135m ”,主打“推测解码”能力可减少 RAM 占用
AMD 在 Huggingface 平台公布了自家首款“小语言模型”AMD-Llama-135m,该模型具有推测解码功能,拥有 6700 亿个 token,采用 Apache 2.0 开源许可,AI在线附模型地址如下(点此访问)。据介绍,这款模型主打“推测解码”能力,其基本原理是使用小型草稿模型生成一组候选 token,然后由更大的目标模型进行验证。这种方法允许每次前向传递生成多个 token,而不会影响性能,从而显著减少 RAM 占用,实现效率提升。AMD 表示,这款模型在四个 AMD Instinct MI25
重磅!TeleAI 完成首个全国产化万卡万参大模型训练
近日,中国电信人工智能研究院(TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型(万卡万参),并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型——星辰语义大模型 TeleChat2-115B。这是由中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授带领团队完成的又一项里程碑式的重要科研成果,标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤
最新测评!美图大模型提前揭秘,这波风格化美到窒息
AI好好用报道编辑:杨文支持1分钟、1080P分辨率的超长视频生成。国产视频大模型再次卷出「新高度」。 前脚快手可灵升级完 1.5 模型,后脚字节就正式进军视频生成。 几乎同一时间,美图公司也突然宣布,自家的奇想大模型(MiracleVision)视频生成能力已完成全面升级。具体而言,它不仅单次文生视频时长、单次图生视频时长均达 5 秒,还支持 1 分钟、帧率 24FPS、分辨率 1080P 的超长视频生成。 而更让人惊喜的,则是它超强的风格化。 比如,写实风格的熊猫,坐在墙根上弹着吉他:视频链接:,戴着墨镜,边走
研究发现:AI 越聪明就越有可能“胡编乱造”
一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更
最受欢迎开源大模型,为什么是通义?
开源与闭源之争早已非新奇的话题,但毋庸置疑的是,开源极大地促进了大模型技术发展和生态繁荣。 大模型被认为是最烧钱的技术,训练一个大模型往往需要大量的数据、计算资源,导致训练成本巨大,众所周知GPT-3的训练费用据说超过 4600万美元,在大模型开源之前,大模型一直是那些有大量资金加持的大厂和明星创业公司才有资格碰的事情。 随着如 llama、Mistral、Falcon 这些开源先锋搅动了整个大模型竞争浪潮,那些没有AI积累的企业、大量中小公司团队,今天个人开发者,都能基于开源底座模型,用很低的成本训练、部署自己的专属模型,llama 这样的开源先锋也因此拥有一众拥趸。
用一篇文章,帮你掌握 Midjourney 的人物风格迁移功能!
大家好,这里是 BananaStudio,上一篇介绍了如何用提示词描述画面中的多个人物,其中提到了 cref,今天详细带大家搞清楚 MJ 人物风格化迁移功能 Character Reference,也就是—cref 命令。如何仿照目标图来生成一样的图?
现在 MJ 中有三种方式可以达成:
① 垫图(最常用的手法)将构图、主题和一些风格大致应用到你生图中。操作说明:参考图片需要上传到 Discord,复制图片的 URL 添加到提示词中。在随后的生图中将会参照你写的提示词和参考垫图中的信息,通过添加“--iw”(图片权
中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源
“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(AI在线注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型 —— 星辰语义大模型 TeleChat2-115B。官方表示,这项科研成果标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。TeleChat2-115B 基于中国电信自研的天翼云“息壤一体化智算服务平台”和人工智能公司“星海 AI 平台”训练完成
OpenAI:计划五年内将 ChatGPT 每月订阅费用提高到最高 44 美元
感谢据 Engadget 当地时间 27 日报道,OpenAI 告诉投资者,该公司计划在今年年底前收取 ChatGPT 每月 22 美元(IT 之家备注:当前约 154 元人民币)的费用,并计划在未来五年内积极提高月费,最高将提升至 44 美元(当前约 308 元人民币)。图源 Pexels报道提到,OpenAI 正在从非营利公司向盈利公司的转变迈步,这种商业模式可取消对投资者汇报的任何上限,因此公司将有更大的空间以潜在的更高价格与新投资者谈判。文件显示,OpenAI 今年 8 月的营收为 3 亿美元(当前约 21
苹果反水:OpenAI的1500亿「史上最大」融资轮,难了
有金主已经决定收手。在 OpenAI,高层变动正在成为一种传统。在不到两年的时间里,OpenAI 从一个 AI 圈内领先的实验室,发展成为一家全球知名的企业。在首席执行官山姆・奥特曼(Sam Altman)被罢免并迅速复职不到一年后,今年 9 月,三位高层领导突然宣布辞职。一个摆在台面上的问题是:这次宫斗的时间点,就在 OpenAI 即将完成可能是硅谷史上最大一轮融资的同一周。本周,OpenAI 首席技术官 Mira Murati、首席研究官 Bob McGrew 和 Post Training 研究副总裁 Bar
《Python机器学习》作者科普长文:从头构建类GPT文本分类器,代码开源
学起来吧!近日,机器学习研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又分享了一篇长文,主题为《从头开始构建一个 GPT 风格的 LLM 分类器》。文章展示了如何将预训练的大型语言模型(LLM)转化为强大的文本分类器。AI在线对文章内容进行了不改变原意的编译、整理:为什么要关注分类呢?首先,针对分类任务,对预训练模型进行微调是一个简单有效的 LLM 知识入门方式。其次,文本分类有许多商业应用场景,比如:垃圾邮件检测、情感分析、客户反馈分类、主题分类等等。阅读完本文,你将找到以下
Voyage-3 系列嵌入式 AI 模型登场:1/2.2 成本、1/3 嵌入维度下性能超 OpenAI v3 Large 模型 7.55%
科技媒体 marktechpost 昨日(9 月 27 日)发布博文,报道称 Voyage AI 公司推出了 Voyage-3 和 Voyage-3-Lite 两个嵌入式(Embedding)模型。这两个模型在技术、法律、金融、多语言应用和长文本理解等方面,均表现出超出同类模型的优势,在保持较小模型规模和较低的资源消耗情况下,为开发者提供更高效、更易于集成的解决方案。AI在线援引 Voyage AI 官方数据,在技术文档、代码、法律、金融、网页内容、多语言数据集、长文档和对话数据等方面,Voyage-3 以 1/2
实测字节豆包·视频生成模型:Sora画的饼被实现了......
但更多的网友则是期待字节的视频生成模型,因为早在去年11月,字节的项目Make Pixels Dance就展示字节具备了解决长AI视频中角色一致性难以保持的问题。 所以我也看到很多外网网友的另一个问题“Where is ByteDacne?”。 而就在9.24火山引擎AI创新巡展深圳站上,火山引擎一口气发布了个视频生成模型PixelDance和Seaweed模型。