Stable Diffusion

大厂出品!如何用 ControlNet 实现精准的画面色彩控制?

颜色控制一直是 AIGC 的难点,prompt 会污染、img2img 太随机… 今天带来利用controlnet,实现对画面颜色的有效控制。都说AIGC是抽卡,但对把它作为工具而非玩具的设计师,必须掌握如何控制它,让我们一起开始可控AI生成。 更多相关干货:一、想给 AI 点颜色瞧瞧,怎么这么难 大家或许已经通过各种《三分钟包会》《五分钟出道》的教程,可以手拿把掐的将一张商品图,完美植入需要的背景中。客观的说,无论从角度、投影、还是商品与背景的语义关系,以下都能算是合格的图片。但是作为视力 255³的设计师,总能

效率暴涨!5 款设计师必备的 Stable Diffusion WebUI 模型(三)

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天继续为大家推荐 5 款优质的设计类 Stable Diffusion WebUI 风格模型,包含电商设计、产品摄影、矢量扁平插画、古风工笔等多种风格。一、设计 | 电商展台 一款非常优秀的电商展台设计模型,包含极简、国风、科技、风景等多种风格,适用范围很广,质感也很棒,生成的图像非常适合作为电商、产品的背景设计素材。模型类型:XL Lora (安装路径:models\Lora) 下载地址: (附件有资源包) 推荐设置:生成步数:35-40;尺寸 768-128

超详细的 Stable Diffusion ComfyUI 基础教程(四):图生图流程

想一下,在我们使用 web UI 图生图的时候,他比文生图多了什么,是不是多了个加载图像的位置。 我们怎么才能把图片转成可以被识别的信息呢,我们需要把图片解码成可以被识别的信息。 上期回顾:一、创建流程 1. 同样,我们先打开文生图基础流程,我们这个基础上把图生图流程加进去; 2. 我们“右键——新建节点——图像——加载图像”,然后把图片传上去; 3. 我们在加载图像上鼠标点击住“图像”往外拉,松开然后选择“VAE 解码”; 4. 我们再把“VAE 解码的 Latent”和“采样器的 Latent”链接,“VAE”

Stable Diffusion Art!百科全书式AI绘画教程网站

大家好,这里是和你们一起探索 AI 绘画的花生~ Stable Diffusion 是目前非常受欢迎的 AI 绘画模型,想必很多小伙伴都用过它。今天为大家推荐一个非常棒的 Stable Diffusion 免费教程网站 Stable Diffusion Art,里面包含系统的新手入门引导、多种进阶教程以及对专业概念解释,非常适合刚接触 Stable Diffusion 小伙伴。 上期回顾:Stable Diffusion Art 简介 网站链接直达: Stable Diffusion Art 的网站内容主要可以分

AIGC大厂实战!京东城市消费券项目完整复盘!

随着 AI 图像生成技术的高速发展,以 Midjourney、Stable diffusion 为例的 AI 工具引起了大家广泛的研究和应用浪潮,也印证了早期流传在 AIGC 圈的一句话“任何行业都值得用 AI 重新做一遍”。面对时代趋势,团队早在 22 年底就开展了 AIGC 在「电商行业领域」的研究和探索,旨在运用新技术帮助团队提升工作效率和质量,高效地解决业务难题。 更多AIGC实战案例:1. 业务背景 23 年初我们团队接到城市消费券的业务需求,业务同学希望快速推动支付券向东券转移,通过产品及活动页面运营,

超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程

前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。 那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢? 是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型: 我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载

万字干货!一口气掌握14种 ControlNet 官方控图模型的使用方法!

在上一篇里我已经为大家介绍了关于 ControlNet 的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍 14 种官方控图模型的差异和使用技巧,以及最近刚面向 SDXL 更新的社区模型。一、官方模型和社区模型 前文我们提到 ControlNet 模型是由张吕敏开源的,目前开源的模型包括以下这 14 种,作为 ControlNet 的布道者,我们可以将这些称之为经典的官方模型。 官方模型下载地址: ,但最近新的 SDXL 大模型发布后还没有做适配,之前的 ControlN

AIGC大厂案例实战!如何用AI完成虚拟演播厅的设计方案?

相信大家已经看过很多 AI 辅助设计流程的文章,AI 正在渗透着各行各业。 本文主要介绍如何通过 AI 工具辅助游戏虚拟演播厅视觉概念稿,通过 Midjourney 和 Stable Diffusion 的组合,实现项目快速落地。 更多AI实战案例:一、拆解主题元素 首先需求方提出这次的主题“龙虎争霸”,希望有对抗的氛围。经常做演播厅的同学应该知道,演播厅常分为三个部分:解说区域,背景板区域以及背景。 对此,我们可将区域拆解分开制作,提高效率。先根据主题和 KV 构思下场景的组成:龙,虎和山海,国风的主题比较贴合。

超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程

前言: 1. 这节课我们开始学习 ComfyUI,我们先从最基础的文生图开始学起。为了方便讲解(方便我这英语不好的人),我文章中的节点大多都是汉化之后的,和我一样英语不好的小伙伴还请看我上篇内容,安装汉化插件。 上期回顾:2. 在学习前我们先回忆一下使用 Web UI 进行文生图的时候用到了哪些功能。3. 是不是有大模型、正向提示词、反面提示词、采样器、步数、宽高、VAE、显示图像。既然我们知道有哪些节点,就把他们按照流程去连起来吧。 一、创建流程 大模型加载器: 1. “右键——新建节点——加载器”我们会看到很多

超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件

前言 相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过 ComfyUI。 ComfyUI 是 一个基于节点流程的 Stable Diffusion 操作界面,可以通过流程,实现了更加精准的工作流定制和完善的可复现性。每一个模块都有特定的的功能,我们可以通过调整模块连接达到不同的出图效果。但节点式的工作流也提高了一部分使用门槛。同时,因为内部生成流程做了优化,生成图片时的速度相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行

超详细的 Stable Diffusion 学习指南:ControlNet 基础教程

今天的文章我将为你娓娓道来关于 ControlNet 的起源介绍、安装方法和使用技巧。 下篇:更多相关干货:

ControlNet 重大更新!直接复制图像风格,可配合 SDXL 大模型使用

大家好,这里是和你们一起探索 AI 绘画的花生~ 知名 Stable Diffusion 插件 ControlNet 在 9 月初迎来了一次比较大的更新,新增了 Recolor 和 IP-Adapter 2 个新模型,更重要的是支持 xl 系列的控制模型,可以配合 SDXL 大模型使用,今天就一起来看看如何在 Stable Diffusion WebUI 中使用这些新模型~ 往期回顾:一、Controlnet 插件更新 ControlNet v1.1.4 更新介绍: (重要,必看) 因为要兼容 SDXL 的生态,

深度解析!如何用Stable Diffusion实现模特精准换装?

一、前言 来了来了,之前给大家承诺的模特换装教程它来了!本篇教程主要运用 StableDiffusion 这个工具来进行操作,下面会通过几个小案例,给大家展示不同需求下,我们该如何使用 StableDiffusion 来辅助我们完成服装效果展示。本教程适用于电商设计场景、摄影场景等多个运用人物设计的实战中,全程干货,需要大家慢慢吸收,学会后轻松拿捏模特换装,let’s go! 往期教程:二、更换模特 1. 不一样的设计需求! 换个不一样的需求单,简单粗暴,直达灵魂最深处(本篇文章随性而为)2. 前期准备 老样子,我

无需本地部署,也能免费使用 Stable Diffusion 的方法来了!

就在 Midjourney 全网收割付费用户的时候,SD 推出一款对标 Midjourney 的完全免费的 AI 画图软件 Stable Foundation,同样部署在 Discord 上,Stable Foundation 使用的是最新的 sdxl 1.0 版本模型。如何将 Stable Foundation 机器人弄到 Discord 上呢? 1. 没有下载 Discord 的朋友,需要先下载 Discord 2. 在网页中打开这个网址:discord.com/invite/stablediffusion 3

免费好用!一键应用184种绘画风格的Stable Diffusion插件!

相信大家都知道 SDXL 1.0 模型的强大吧,可以和 Midjourney 一样通过关键词控制出不同风格的图,但是我们却不知道通过哪些关键词可以得到自己想要的风格。今天给大家分享一个 SDXL 风格插件。一、安装方式 相信大家玩 SD 这么久,怎么安装插件已经都知道吧,我就简单说一下。 安装方式一: “扩展 - 可下载 - 加载扩展列表 - 搜索 style selector”,找到名为 Style Selector for SDXL 1.0 的插件,点击右侧安装即可,安装成功后重启 webUI安装方式二: 复制

Imagecreator!让你在PS中免费用上Stable Diffusion的神级插件

大家好,这里是和你们一起探索 AI 绘画的花生~ 最近一款 Photoshop 插件 Imagecreator 广受关注,它将 Stable Diffusion 生态中的文生图、图生图、局部重绘等功能引入 Photoshop 中,支持灵活调用多种大模型、Lora 模型和 ControlNet 插件,让我们可以在 Ps 中以使用 Stable Diffusion WebUI 的方式完成 AI 出图 ,今天我们就一起看看如何使用这款 AI 绘画插件~ 了解更多 AI 绘画神器:一、安装 Imagecreator Ima

8000字干货!超全面的 Stable Diffusion 学习指南:图生图篇

即使之前在 Midjourney 中有过图生图的使用经验,但大部分人对该功能的印象仅限于喂图,通过它可以让模型了解更多我们要传达的信息,从而达到准确出图的目的。但在 Stable Diffusion 中的图生图还要强大的多,除了控图还包含了手动涂鸦、局部重绘、图像扩展等更多功能。 今天的文章里我会为你详细介绍图生图的工作原理、工具解析和图像重绘的应用方向,如果没有看过「文生图篇」的朋友建议先去学习下,以便你更好的理解今天的内容。一、图生图功能初识 1. 传统意义上的喂参考图 我们都知道,模型在运算时是根据我们提供的

案例解析!3个实战应用场景帮你深度掌握Stable Diffusion

一、前言 大家好!在当今数字化时代的设计领域,技术的发展不断引领着创新的方向,而 StableDiffusion 作为一款融合了人工智能与艺术的绘画软件,正为我们带来前所未有的设计可能性。我们每天都在与图像和文字打交道,而如何让它们更生动、更吸引人,正是设计师们的永恒追求。在这个背景下,StableDiffusion 扮演着一个重要的角色,为我们提供了一把开启创作新境界的钥匙。