comfyui-shi-zhan-jiao-cheng-5-fen-zhong-bu-shu-zui-xin-flux-da-mo-xing 的搜索结果

AI绘画保姆级教程!如何用 ComfyUI 快速生成黏土风?

这个五一小长假,一款 Remini 的人工智能修图软件火了,一夜之间,大家都变成了粘土人。你喜欢粘土风格吗?这篇文章带你了解了解~一、前言 最近你是不是也被各个平台爆火的丑萌丑萌的粘土人照片视频刷屏了?这个五一小长假,一款 Remini 的人工智能修图软件火了,一夜之间,大家都变成了粘土人。很多人的第一反应是:太丑了!添加滤镜后的照片不仅丑萌丑萌,甚至还有点“呆傻”。还有网友评价:每一张都丑得很意外。真的很丑萌吗?我们一起瞧瞧!虽然丑出天际、丑到无语,甚至五官乱飞,但很多人一上手根本停不下来。有网友说,一玩玩到了凌

AI 绘画干货教程!3 种方式快速复刻超火的 Remini 黏土风滤镜

大家好,这里是和你们一起探索 AI 绘画的花生~ 五一期间火爆全网的 “黏土风滤镜” 大家都玩过了吗?即使你没有玩过肯定也在朋友圈或者小红书里面刷到过,现在打开小红书随便一搜就能看到很多相关的帖子,最高的点赞达到了 1W ,热度非常高。 这种黏土风效果是由一款名为 Remini 的 ios 应用生成的,它有 7 天的免费试用期,但试用期结束了需要开通 68 元/周的会员才能使用,并不便宜;而且很多非苹果用户的小伙伴表示根本用不上。那今天就为大家推荐 3 种用 AI 绘画工具复刻的同类滤镜的方式,一起来看看吧~相关推

AIGC实战案例!教你一键生成毛绒绒的图标

一键生成毛绒绒 ICON 工作流来啦!只需要输入对应的 logo 和颜色提示词,即可生成毛绒绒效果的 ICON 图标! ㅤ 「注意事项」: 基本上所有参数都设置好,不需要大幅更改,如果觉得效果不够理想,可以从 lora 权重下手修改看看。如果图标拥有三种颜色或以上的时候,则需要各自生成一张图,再到 PS 做融合处理。

IP Adapter Plus 插件手把手教程!用法更简单,可分别控制风格与构图

大家好,这里是和你们一起探索 AI 的花生~ IP Adapter 是 SD 生态中一个非常强大的风格迁移插件,可以将一张图像的风格复制到新生成的图像中,有效提升我们的出图效率,目前在设计领域有广泛应用。 相关推荐:最近,ComfyUI IP Adapter Plus 的作者 @cubiq 重写了插件代码,对整体进行了升级更新。新插件在节点搭建和模型上读取上比之前更简单方便,并且支持的功能也更丰富了。而最让人惊喜的一点是 IP Adapter Plus 支持分别进行风格迁移、构图迁移和二者的联合使用,可以让我们更准

实战案例!如何用 ComfyUI 给模特换服装?

一、前言 当你从优设这么多高含金量的内容里面找到这我这篇,我相信你肯定不是单纯的为了工作,很好! 技术的迭代其核心驱动一定是兴趣,而不仅仅是为了去打工! 在工作之余,给你身边的小姐姐,小哥哥们提供适当的情绪价值,回报一定会超乎你的想象。 当然,今天分享的,纯粹是技术实现路径,审美这块,我相信你肯定比我强。(在多年的甲方教育下,审美已经不存在了) 闲话就说到这里,开整!二、模特换服装和场景 1. 不一样的摄影需求 为什么要做这个事? 在学习开始之前,整明白这个事,可以很好的帮你做好心理建设,拉高你的预期, 这样在遇到

效率翻倍!5 款不容错过的免费 AI 神器(二)

大家好,这里是你们一起探索 AI 的花生~ 今天继续 AI 效率神器推荐,内容包括多款高阶 ComfyUI 工作流、免费的 AI 放大工具、AI 翻译神器等。 上期回顾:一、36 款高阶 ComfyUI 工作流 下载链接: 前段时间刚和大家分享过 2 个 SD 工作流网站,里面的资源可以帮我们一键复刻大神工作流。就在前几天,精通 ComfyUI 的大神 @zho 将自己的制作的 14 类共 36 款使用工作流全部公开了,包含 Stable Cascade、3D 模型生成、Differential Diffusio

Stable Diffusion ComfyUI 进阶教程(二):Controlnet 面部与姿态预处理器

这节课我们继续去学习 Controlnet 预处理器中的面部与姿态预处理器,这也是我们在使用 Controlnet 时最常用的一种控制方式之一,使用姿态能让我们生成的图像与输入的面部与姿态数据保持一致性。一、DW 姿态预处理器①介绍:从图像中提取手部、身体、面部姿态信息并生成骨架图; ②检测手部、身体、面部:这不用说了吧,关掉就不会生成此部位骨架图,开启就会生成此部位骨架图; ③BBox 检测:边界框检测器,用于检测图像中的对象并标识其位置(比如用来框选空姐在图中的位置); ④姿态预估:姿态预估模型,通过此模型提取

这 2 个工作流网站,让 Stable Diffusion 新手一秒变大神!

大家好,这里是和你们一起探索 AI 的花生~很多小伙伴在学习完 Stable Diffusion WebUI 和 ComfyUI 的基础操作后,都在问我如何能实现更高级的应用,比如创意摄影、AI 换装、图像风格转换、AI 视频制作等。今天就为大家推荐 2 个资源网站,上面有很多 AI 大神分享的优质工作流,下载后导入到自己的工具中就能一键复刻同样的效果,实现 Stable Diffusion 新手快速生成酷炫效果图的梦想,一起来看看吧~ 相关推荐:一、Lightflow Lightflow 社区网址: Light

效率翻倍!ComfyUI 必装的工作流+模型管理插件 Workspace Manager

大家好我是花生~ 前不久为大家推荐的秋葉大佬的 ComfyUI 整合安装包,今天继续为大家推荐一个目前非常受欢迎的 ComfyUI 插件 Workspace Manager,它可以让我们轻松管理、调用自己的工作流文件和模型,有效提升我们使用 ComfyUI 的效率。 上期回顾:一、Workspace Manager 安装方式 插件 Github 网址: 如果你没有安装 Workspace Manager 插件,可以通过以下 2 种方式安装: ① 通过 ComfyUI Manager 安装(推荐)。进入 Comfy

Stable Diffusion ComfyUI 基础教程(八):如何使用 Controlnet

一、前言 终于到了最激动人心的时刻,我们使用 Stable Diffusion 最重要的就是他的可控性,其中 Controlnet(控制网络)的作用居功至伟,它可以引入更多的条件来让我们出图更加可控。 往期回顾:在最开始之前我们需要安装 Controlnet 预处理器插件以及下载 Controlnet 模型: ①Controlnet 预处理器插件:插件地址: 如果安装后,运行 ComfyUI 显示无法导入插件 请运行“ComfyUI\custom_nodes\comfyui_controlnet_aux”目录下的

ComfyUI 傻瓜整合包发布!一键安装,SD 进阶自学必备!

大家好我是花生~ 上周赛博佛祖秋葉 Aki 发布了针对 ComfyUI 的整合安装包,让这款原本偏专业的 AI 绘画工具对初学者来说更容易上手使用了,我也安装试用了一下,的确非常方便,今天就为大家详细介绍一下整合包的用法 ~ ComfyUI 相关教程:一、ComfyUI 简介 ComfyUI 本体 Github 主页: ComfyUI 和大家熟知的 WebUI 一样,都是 Stable Diffusion 的一种用户界面,可以实现文生图、图生图、图像处理、AI 视频生成等操作。但 ComfyUI 是节点式模块化的

SD WebUI 中也能用上实时绘画了!支持接入PS/Blender 等设计工具

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介 SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生图、图

Stable Diffusion ComfyUI 基础教程(七)如何使用三大微调模型:Embeddings、Lora、Hypernetwork

前言: 在我们绘图过程中我们用到了 Checkpoint 模型和 VAE 模型,但是还有另外三种可以辅助我们出图的模型没有给大家介绍,他们分别是 Embeddings(嵌入)、Lora(低秩适应模型)、Hypernetwork(超网络)这三种模型; 在开始讲解这三个模型之前我们一定要记住不止 Checkpoint(大模型)分 SD1.4、SD1.5、SDXL1.0 等基础算法型号,这三个模型同样也分,我们在使用时要选择对应基础算法型号才能正常使用。 今天我们就讲讲这三种模型分别是什么原理、有什么作用和怎么使 用。

AI辅助IP形象设计!用 Stable Zero123 生成任意角色的三视图

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天为大家推荐一种用 AI 辅助生成任意角色三视图的方法,用到的是 Stability AI 新出的 Stable Zero123 模型,并结合 Midjourney、Stable Diffusion WebUI、Ps 等工具完成。工作流搭建完成后,用来生成一些简单 IP 形象的三视图非常方便。 相关推荐:一、根据图像生成多视角图 Stable Zero123 是 Stability AI 在前段时间推出的一个新模型,可以根据一张图像生成高质量的 3D 模型,并且支

Stable Diffusion ComfyUI 基础教程(六):图片放大与细节修复

往期回顾:补充: ①在开始之前推荐一个插件,ComfyUI-Manager(ComfyUI 管理器),下载地址: ②安装方式除了可以使用我们第一节课上讲的 “git 拉取”外( 不要使用压缩包解压安装),还可以把“install-manager-for-portable-version.bat”文件放入"ComfyUI_windows_portable"目录双击安装(“install-manager-for-portable-version.bat”文件我会放在这节课的文件链接里面);③安装好之后会在右侧菜单上显

让AI出图速度提高10倍!用 SDXL Turbo 实现快速出图!

大家好,这里是和你们一起探索 AI 绘画的花生~ 前段时间 Stabilty AI 官方发布了一个开源模型 SDXL Turbo,它和我们之前讲过的 LCM 一样,只需 1-4 步就能完成图像生成,同时图像质量依旧保持的不错。如果将 SDXL Turbo 部署到本地, 我们就可以免费在自己电脑上实现 AI 图像实时生成 今天就为大家推荐几种在本地部署使用 SDXL Turbo 模型的方法,包括 Stable Diffusion WebUI、ComfyUI 和 Fooocus,经测试可以将图像的生成速度提升 6-10

超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程

前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。 那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢? 是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型: 我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载

超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程

前言: 1. 这节课我们开始学习 ComfyUI,我们先从最基础的文生图开始学起。为了方便讲解(方便我这英语不好的人),我文章中的节点大多都是汉化之后的,和我一样英语不好的小伙伴还请看我上篇内容,安装汉化插件。 上期回顾:2. 在学习前我们先回忆一下使用 Web UI 进行文生图的时候用到了哪些功能。3. 是不是有大模型、正向提示词、反面提示词、采样器、步数、宽高、VAE、显示图像。既然我们知道有哪些节点,就把他们按照流程去连起来吧。 一、创建流程 大模型加载器: 1. “右键——新建节点——加载器”我们会看到很多