AI绘画

从宏观视角,聊聊AIGC对设计行业的影响与启发

自 2022 年下半年开始,席卷而来的 AIGC 对设计工作者带来不小的冲击,设计本是一个“GC”生产内容的岗位,AI 生产内容有什么不同?如何理解一波浪潮的发生逻辑及影响,如何用好 AI 工具帮助我们生产内容,是群核设计团队的新课题。目前有了一定的成果和观点,今天跟大家一起分享与交流。 本文将从宏观角度来聊聊这一轮 AI 对设计行业到底有什么影响,对我们有什么启发? 更多AIGC 的应用:一、了解今年狂飙的 AI 现如今 AI 火热体现在 3 个方面:生成式 AI 到了技术发展从开始走向期望的膨胀期,现象级产品已

AIGC大厂实战!京东城市消费券项目完整复盘!

随着 AI 图像生成技术的高速发展,以 Midjourney、Stable diffusion 为例的 AI 工具引起了大家广泛的研究和应用浪潮,也印证了早期流传在 AIGC 圈的一句话“任何行业都值得用 AI 重新做一遍”。面对时代趋势,团队早在 22 年底就开展了 AIGC 在「电商行业领域」的研究和探索,旨在运用新技术帮助团队提升工作效率和质量,高效地解决业务难题。 更多AIGC实战案例:1. 业务背景 23 年初我们团队接到城市消费券的业务需求,业务同学希望快速推动支付券向东券转移,通过产品及活动页面运营,

超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程

前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。 那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢? 是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型: 我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载

万字干货!一口气掌握14种 ControlNet 官方控图模型的使用方法!

在上一篇里我已经为大家介绍了关于 ControlNet 的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍 14 种官方控图模型的差异和使用技巧,以及最近刚面向 SDXL 更新的社区模型。一、官方模型和社区模型 前文我们提到 ControlNet 模型是由张吕敏开源的,目前开源的模型包括以下这 14 种,作为 ControlNet 的布道者,我们可以将这些称之为经典的官方模型。 官方模型下载地址: ,但最近新的 SDXL 大模型发布后还没有做适配,之前的 ControlN

AI绘画神器 Fooocus 2.0 来啦!出图质量升级+新增4大实用功能!

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家推荐过一款融合了 midjourney 和 stable diffusion 优点的 AI 绘画工具 Fooocus,它用的是开源的 SDXL 1.0 模型,可以免费生成高质量的图像,同时操作界面又如 Midjourney 般简单,受到很多 AI 绘画爱好者的喜爱。最近 Fooocus 升级到了 2.0 版本,不仅图像生成质量有了大幅提升,还新增了生成变体、高清放大、局部重绘、外绘拓展功能,今天一起看看如何使用这些新功能。 上期回顾:一、Fooocus 2

AIGC大厂案例实战!如何用AI完成虚拟演播厅的设计方案?

相信大家已经看过很多 AI 辅助设计流程的文章,AI 正在渗透着各行各业。 本文主要介绍如何通过 AI 工具辅助游戏虚拟演播厅视觉概念稿,通过 Midjourney 和 Stable Diffusion 的组合,实现项目快速落地。 更多AI实战案例:一、拆解主题元素 首先需求方提出这次的主题“龙虎争霸”,希望有对抗的氛围。经常做演播厅的同学应该知道,演播厅常分为三个部分:解说区域,背景板区域以及背景。 对此,我们可将区域拆解分开制作,提高效率。先根据主题和 KV 构思下场景的组成:龙,虎和山海,国风的主题比较贴合。

超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程

前言: 1. 这节课我们开始学习 ComfyUI,我们先从最基础的文生图开始学起。为了方便讲解(方便我这英语不好的人),我文章中的节点大多都是汉化之后的,和我一样英语不好的小伙伴还请看我上篇内容,安装汉化插件。 上期回顾:2. 在学习前我们先回忆一下使用 Web UI 进行文生图的时候用到了哪些功能。3. 是不是有大模型、正向提示词、反面提示词、采样器、步数、宽高、VAE、显示图像。既然我们知道有哪些节点,就把他们按照流程去连起来吧。 一、创建流程 大模型加载器: 1. “右键——新建节点——加载器”我们会看到很多

可能是目前最强的AI绘画神器!文生图模型 DALL·E 3来啦!

大家好,这里是和你们一起探索 AI 绘画的花生~ 9 月 21 号 OpenAI 在官网上线了 DALL·E 3 的介绍页面,它是一款新的文生图模型,可以根据文本提示词生成各种风格的高质量图像。DALL·E 3 的上一代是去年 4 月份推出的 DALL·E 2,出现时同样因为强大的图像生成能力引起过广泛关注。时隔一年半,新推的 DALL·E 3 有哪些方面的提升?与 Midjourney、Stable Diffusion 等 AI 绘画工具相比又有哪些不同?今天就带大家一起了解。 了解 DALL·E 2 模型:一、

AIGC如何应用到实战?收下大厂的5500字复盘经验!

前言 近年来,随着人工智能技术的迅猛发展,文心一言、ChatGPT、Midjourney、Stable Diffusion等生成式AI工具已崭露头角。它们正在默默地改变着我们的生活和思维方式,同时也影响了运营活动类设计方法。通过输入指令、图片和相关信息,这些工具能快速生成满足活动需求的创意内容,显著提升工作效率和设计多样性,同时缩短了活动制作周期,为设计师提供更多的创新时间。 更多AI应用案例:紧随生成式 AI 技术潮流,我们将大型活动与 AI 融合,暑期活动成为 AI 实践的关键项目之一。每个活动包括前期设定探索

超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件

前言 相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过 ComfyUI。 ComfyUI 是 一个基于节点流程的 Stable Diffusion 操作界面,可以通过流程,实现了更加精准的工作流定制和完善的可复现性。每一个模块都有特定的的功能,我们可以通过调整模块连接达到不同的出图效果。但节点式的工作流也提高了一部分使用门槛。同时,因为内部生成流程做了优化,生成图片时的速度相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行

AI科普指南!Midjourney 的诞生之旅(附实用技巧和案例)

本文从什么是人工智能,Midjourney 的操作指南和商用案例3个方面,帮你快速入门Midjourney。 更多Midjourney技巧:

Midjourney 实战案例!KV设计从需求到落地全流程

本文以二次元节目 KV 为例,通过 Midjourney 从最初的需求到最终的方案落地全流程。根据需求方给出的需求,要做一个二次元的节目 KV,这是一个类似于广播站的项目,且需要有演播厅的氛围。 更多AI绘画实战:一、构思 在开始制作之前,我已经开始构思这个项目的大概场景。这是一个电台的场景,如下图所示:第一步就是找参考,从需求方提供的信息来看,我们需要找到符合所需的卡通 Q 版风格的参考图。 为此我找到了一个叫做 Chibi style 的艺术风格,他们的 KV 效果图如下图所示:二、炼图 以关键词 Chibi

超详细的 Stable Diffusion 学习指南:ControlNet 基础教程

今天的文章我将为你娓娓道来关于 ControlNet 的起源介绍、安装方法和使用技巧。 下篇:更多相关干货:

Midjourney实战教程!如何用AI快速生成好看的真人照片?

我从未见到过哪些工具会取代人,我倒是经常见到正因为是通过人的使用才让这些工具充满价值。 先邀请大家我们一起进行一个小游戏互动,下面一组图片我们筛选一下看哪些是真人照片哪些是 AI 生成的,答案我就放在结尾为大家揭秘。大家选择完毕后,接下来我将为大家带来关于介绍是如何通过 Midjourney 来生成好看的照片,以及怎样在实践项目中运用这些照片。 往期干货:一、为什么要使用真人照片 1. 照片的由来 要问为什么要使用 Midjourney 来生成真人照片,那么我们先从照片的历史来切入,照片的历史由来可以分为五个阶段(

ControlNet 重大更新!直接复制图像风格,可配合 SDXL 大模型使用

大家好,这里是和你们一起探索 AI 绘画的花生~ 知名 Stable Diffusion 插件 ControlNet 在 9 月初迎来了一次比较大的更新,新增了 Recolor 和 IP-Adapter 2 个新模型,更重要的是支持 xl 系列的控制模型,可以配合 SDXL 大模型使用,今天就一起来看看如何在 Stable Diffusion WebUI 中使用这些新模型~ 往期回顾:一、Controlnet 插件更新 ControlNet v1.1.4 更新介绍: (重要,必看) 因为要兼容 SDXL 的生态,

Midjourney实战案例!10分钟如何快速搞定中秋节设计?

马上中秋节就到了,相信大家都正在着手中秋节的活动,那么接下来,我们就为大家带来关于使用“Midjourney”制作中秋节运营的活动。那么我们就“少啰嗦,先看东西!” 更多AI应用实战:我们的绘制过程还是保持常规的操作步骤: “梳理需求——头脑风暴及筛选参考——Midjourney绘制——二次加工、排版出图”一、需求梳理 对于这次需求我们要首先明确本次活动的两个目的:完成假期期间的用户留存 活动期间保障对于产品商场模块的流量分发。接下来开始运营活动的整体构思,当我们要做一个关于“中秋活动的运营 h5”,根据原型图由此

万字精华总结!同济大学教授/特赞创始人范凌的AIGC深度思考

创意真的可以被计算吗? 范凌老师说:“创意可计算和不可计算,不是黑与白的关系。当把它变成对立的时候我们会逐步忘记这中间可能会产生很多有意思的东西。在两者之间,这个沼泽地,其实是生命力最旺盛的。” 更多AIGC干货:一、我的纠结:理工科与艺术设计怎么融合? 我有两份全职工作,第一份全职工作是同济大学设计人工智能实验室的主任、教授、博士生导师,第二份全职工作是特赞公司的创始人兼 CEO,每天工作时长 16 个小时。 身兼两种全职工作,前者围绕技术,后者围绕创意或设计,我一直致力于将二者结合。特赞公司的名字由此而来,即

深度解析!如何用Stable Diffusion实现模特精准换装?

一、前言 来了来了,之前给大家承诺的模特换装教程它来了!本篇教程主要运用 StableDiffusion 这个工具来进行操作,下面会通过几个小案例,给大家展示不同需求下,我们该如何使用 StableDiffusion 来辅助我们完成服装效果展示。本教程适用于电商设计场景、摄影场景等多个运用人物设计的实战中,全程干货,需要大家慢慢吸收,学会后轻松拿捏模特换装,let’s go! 往期教程:二、更换模特 1. 不一样的设计需求! 换个不一样的需求单,简单粗暴,直达灵魂最深处(本篇文章随性而为)2. 前期准备 老样子,我