AIGC宇宙 AIGC宇宙

字节整活!1.58比特FLUX:手机也能流畅运行的顶尖AI画图神器来了

自字节跳动和POSTECH的研究团队发布了一项名为“1.58-bit FLUX”的突破性研究成果,该成果成功将最先进的文本到图像(T2I)生成模型FLUX.1-dev的权重参数量化至1.58比特,同时保持了生成1024x1024图像的质量,为在资源受限的移动设备上部署大型T2I模型开辟了新的道路,这项研究成果已发布在arXiv上,并配有开源代码库(代码目前还没有上传)AI画图模型也能“减肥”? 简单来说,就是把 FLUX(由Stable Diffusion作者团队成立的黑森林实验室Black Forest Lab推出) 的超强AI画图模型进行了“压缩”。 大家都知道,现在的AI画图模型,像DALLE 3、Stable Diffusion 3、Midjourney等,展现出强大的图像生成能力,在现实应用中潜力巨大。

自字节跳动和POSTECH的研究团队发布了一项名为“1.58-bit FLUX”的突破性研究成果,该成果成功将最先进的文本到图像(T2I)生成模型FLUX.1-dev的权重参数量化至1.58比特,同时保持了生成1024x1024图像的质量,为在资源受限的移动设备上部署大型T2I模型开辟了新的道路,这项研究成果已发布在arXiv上,并配有开源代码库(代码目前还没有上传)

图片

AI画图模型也能“减肥”?

简单来说,就是把 FLUX(由Stable Diffusion作者团队成立的黑森林实验室Black Forest Lab推出) 的超强AI画图模型进行了“压缩”。大家都知道,现在的AI画图模型,像DALLE 3、Stable Diffusion 3、Midjourney等,展现出强大的图像生成能力,在现实应用中潜力巨大。然而,这些模型动辄数十亿的参数量和高昂的推理内存需求,使其难以在手机等移动端设备上部署

这就好比,你想用手机拍个8K超清电影,结果手机内存直接爆了,这不就尴尬了?

而 FLUX 这个模型,本来就已经很厉害了,现在又被“压缩”成了 1.58-bit FLUX,体积直接缩小了 7.7倍!这意味着,以后在手机上跑这些超强AI画图模型,不再是梦!

1.58-bit是啥?听起来很高端的样子

研究团队选择了开源且性能优异的FLUX.1-dev模型作为量化目标,探索了极低比特量化方案。通过将模型中99.5%的视觉Transformer参数量化至1.58比特,即限制参数值为{-1, 0, +1},并开发了专门针对1.58比特运算的定制化内核,1.58-bit FLUX在模型大小、推理内存和推理速度上都取得了显著的提升

其实,“1.58-bit”可以理解为一种超级高效的“打包”方式。你可以把AI模型的参数想象成一个个小积木,原本这些积木可能有很多种颜色、很多种形状。而“1.58-bit”就像是一个神奇的收纳盒,它把这些积木简化成了只有三种:“-1”、“0”和“+1”。

这样一来,原本需要很大空间才能存放的积木,现在用一个小小的盒子就能装下,而且这些积木还能拼出和原来几乎一样的图案!这波操作,是不是很像你平时用的压缩软件?只不过,这是针对AI模型做的超级压缩!

核心技术及创新

1. 数据无关的1.58比特量化: 与以往需要图像数据或混合精度方案的量化方法不同,1.58-bit FLUX的量化过程完全不依赖图像数据,仅通过对FLUX.1-dev模型进行自监督即可完成。这大大简化了量化流程,使其更具普适性

2. 定制化1.58比特运算内核: 为了进一步提升推理效率,研究团队开发了针对1.58比特运算优化的内核。该内核显著降低了推理时的内存占用,并提升了推理速度

实验结果及分析

实验结果表明,1.58-bit FLUX实现了以下显著提升:

• 模型存储减少7.7倍: 由于权重被量化为2比特有符号整数,模型存储空间大幅下降

• 推理内存减少5.1倍: 在各种GPU类型上,推理内存使用量均有显著降低,在A10-24G等资源受限的设备上尤为明显

• 推理速度提升: 特别是在L20和A10等性能较低的GPU上,推理速度提升高达13.2%图片

“压缩”过的模型,画质会打折吗?

这可能是大家最关心的问题了。毕竟,如果画质变差了,那“瘦身”还有啥意义呢?

放心,研究团队早就想到了这一点!他们在 GenEval 和 T2I Compbench 这两个超权威的测试平台上,对“压缩”前后的模型进行了严格的对比测试。结果表明,1.58-bit FLUX 的画质,和原来几乎一模一样!

图片

论文里还放出了大量的对比图,比如“一只在图书馆里行走的海水猫”、“一条在城市上空盘旋的火龙”等等,这些天马行空的画面,1.58-bit FLUX 都能轻松驾驭,细节满满,效果惊艳!

图片

图片

这黑科技,到底有什么用?

这项技术,最大的意义在于,它让我们看到了 在手机上运行大型AI画图模型的可能性! 以前,我们只能在电脑上,甚至是用专业的服务器才能体验到AI画图的乐趣。现在,随着 1.58-bit FLUX 的出现,未来我们也许只需要一部手机,就能随时随地进行AI创作!

相关资讯

OpenAI深夜发布全新Agent工具:两大杀器登场,感觉可以手搓Manus了

可以自己动手手搓Manus了? 刚刚OpenAI举行了一个19分钟的线上发布会,推出全新Agent工具,OpenAI直接祭出自研Agent SDK和Responses API两大杀器! 旨在彻底简化agent开发流程,让开发者和企业都能轻松构建实用又可靠的智能体!
3/12/2025 10:00:44 AM
AI寒武纪

从思考到行动:大模型自主工具调用能力的深度实现

本项目由复旦大学知识工场实验室肖仰华教授、梁家卿青年副研究员领导,博士生韩槿一,硕士生李廷云、熊程元、姜子上、王昕奕等同学共同参与完成。 GPT - 4o、Deepseek - R1 等高级模型已展现出令人惊叹的「深度思考」能力:理解上下文关联、拆解多步骤问题、甚至通过思维链(Chain - of - Thought)进行自我验证、自我反思等推理过程。 但是,多数主流模型仍在基础问题上犯错,复杂四则运算计算失误,简单「两个小数比大小」出错、甚至连数清楚 strawberry 里有几个「r」都能翻车……即使提示像 R1 这样具备深度思考能力的大模型也要消耗大量的 token 才能勉强答对。
4/17/2025 10:43:00 AM
机器之心

告别 DeepSeek 系统繁忙,七个 DeepSeek 平替入口,官网崩溃也能用!

前言DeepSeek作为一款备受瞩目的国产大模型,以其强大的功能和卓越的性能赢得了众多用户的青睐。 然而,随着用户量的激增,DeepSeek官网近期频繁遭遇服务器繁忙甚至崩溃的问题,给广大用户带来了不小的困扰。 面对这一现状,许多用户急于寻找能够替代或绕过官网限制的方法,以继续享受DeepSeek带来的便捷与高效。
2/11/2025 8:06:43 AM
大姚
  • 1