aigc-da-chang-an-li-shi-zhan-ru-he-yong-ai-wan-cheng-xu-ni-yan-bo-ting-de-she-ji-fang-an 的搜索结果

Adobe发布新模型Firefly Image 2!新增6大功能,可免费使用

大家好,我是花生~ 10 月 10 日备受瞩目的 Adobe Max 2023 大会正式召开,在序幕活动中,Adobe 推出了 3 款新的生成式人工智能模型 —— Firefly Image 2 Model (第二代萤火虫图像模型)、Firefly Vector Model (萤火虫矢量模型)和 Firefly Design Model(萤火虫设计模型),这些新模型将与 Adobe Photoshop、Illustrator 和 Express 工具结合,赋予设计师更强大更智能的生产力。 其中文生图模型 Firef

Stable Diffusion Art!百科全书式AI绘画教程网站

大家好,这里是和你们一起探索 AI 绘画的花生~ Stable Diffusion 是目前非常受欢迎的 AI 绘画模型,想必很多小伙伴都用过它。今天为大家推荐一个非常棒的 Stable Diffusion 免费教程网站 Stable Diffusion Art,里面包含系统的新手入门引导、多种进阶教程以及对专业概念解释,非常适合刚接触 Stable Diffusion 小伙伴。 上期回顾:Stable Diffusion Art 简介 网站链接直达: Stable Diffusion Art 的网站内容主要可以分

从宏观视角,聊聊AIGC对设计行业的影响与启发

自 2022 年下半年开始,席卷而来的 AIGC 对设计工作者带来不小的冲击,设计本是一个“GC”生产内容的岗位,AI 生产内容有什么不同?如何理解一波浪潮的发生逻辑及影响,如何用好 AI 工具帮助我们生产内容,是群核设计团队的新课题。目前有了一定的成果和观点,今天跟大家一起分享与交流。 本文将从宏观角度来聊聊这一轮 AI 对设计行业到底有什么影响,对我们有什么启发? 更多AIGC 的应用:一、了解今年狂飙的 AI 现如今 AI 火热体现在 3 个方面:生成式 AI 到了技术发展从开始走向期望的膨胀期,现象级产品已

如何用ChatGPT做产品调研?来看高手的实践经验!

一、为什么要使用 ChatGPT 做调研? 1. B端产品探索期调研工作量大 我们经常做调研应该知道,B 端产品探索期常做的调研包含 4 种:市场调研:了解市场需求和用户反馈,分析市场竞争格局和发展趋势 需求调研:了解目标用户的需求、期望和反馈,分析用户的使用场景、行为习惯和痛点 竞品调研:了解竞品产品的优势和不足,分析竞品的用户群体、使用场景和功能特点 体验调研:了解用户对产品的使用体验、满意度和建议,分析用户的痛点和需求调研中检索信息数据,整合资源、体验复杂产品、形成体验报告等工作量极大,项目时间短,很难完成。

AIGC大厂实战!京东城市消费券项目完整复盘!

随着 AI 图像生成技术的高速发展,以 Midjourney、Stable diffusion 为例的 AI 工具引起了大家广泛的研究和应用浪潮,也印证了早期流传在 AIGC 圈的一句话“任何行业都值得用 AI 重新做一遍”。面对时代趋势,团队早在 22 年底就开展了 AIGC 在「电商行业领域」的研究和探索,旨在运用新技术帮助团队提升工作效率和质量,高效地解决业务难题。 更多AIGC实战案例:1. 业务背景 23 年初我们团队接到城市消费券的业务需求,业务同学希望快速推动支付券向东券转移,通过产品及活动页面运营,

超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程

前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。 那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢? 是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型: 我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载

万字干货!一口气掌握14种 ControlNet 官方控图模型的使用方法!

在上一篇里我已经为大家介绍了关于 ControlNet 的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍 14 种官方控图模型的差异和使用技巧,以及最近刚面向 SDXL 更新的社区模型。一、官方模型和社区模型 前文我们提到 ControlNet 模型是由张吕敏开源的,目前开源的模型包括以下这 14 种,作为 ControlNet 的布道者,我们可以将这些称之为经典的官方模型。 官方模型下载地址: ,但最近新的 SDXL 大模型发布后还没有做适配,之前的 ControlN

AI绘画神器 Fooocus 2.0 来啦!出图质量升级+新增4大实用功能!

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家推荐过一款融合了 midjourney 和 stable diffusion 优点的 AI 绘画工具 Fooocus,它用的是开源的 SDXL 1.0 模型,可以免费生成高质量的图像,同时操作界面又如 Midjourney 般简单,受到很多 AI 绘画爱好者的喜爱。最近 Fooocus 升级到了 2.0 版本,不仅图像生成质量有了大幅提升,还新增了生成变体、高清放大、局部重绘、外绘拓展功能,今天一起看看如何使用这些新功能。 上期回顾:一、Fooocus 2

AIGC大厂案例实战!如何用AI完成虚拟演播厅的设计方案?

相信大家已经看过很多 AI 辅助设计流程的文章,AI 正在渗透着各行各业。 本文主要介绍如何通过 AI 工具辅助游戏虚拟演播厅视觉概念稿,通过 Midjourney 和 Stable Diffusion 的组合,实现项目快速落地。 更多AI实战案例:一、拆解主题元素 首先需求方提出这次的主题“龙虎争霸”,希望有对抗的氛围。经常做演播厅的同学应该知道,演播厅常分为三个部分:解说区域,背景板区域以及背景。 对此,我们可将区域拆解分开制作,提高效率。先根据主题和 KV 构思下场景的组成:龙,虎和山海,国风的主题比较贴合。

可能是目前最强的AI绘画神器!文生图模型 DALL·E 3来啦!

大家好,这里是和你们一起探索 AI 绘画的花生~ 9 月 21 号 OpenAI 在官网上线了 DALL·E 3 的介绍页面,它是一款新的文生图模型,可以根据文本提示词生成各种风格的高质量图像。DALL·E 3 的上一代是去年 4 月份推出的 DALL·E 2,出现时同样因为强大的图像生成能力引起过广泛关注。时隔一年半,新推的 DALL·E 3 有哪些方面的提升?与 Midjourney、Stable Diffusion 等 AI 绘画工具相比又有哪些不同?今天就带大家一起了解。 了解 DALL·E 2 模型:一、

AIGC如何应用到实战?收下大厂的5500字复盘经验!

前言 近年来,随着人工智能技术的迅猛发展,文心一言、ChatGPT、Midjourney、Stable Diffusion等生成式AI工具已崭露头角。它们正在默默地改变着我们的生活和思维方式,同时也影响了运营活动类设计方法。通过输入指令、图片和相关信息,这些工具能快速生成满足活动需求的创意内容,显著提升工作效率和设计多样性,同时缩短了活动制作周期,为设计师提供更多的创新时间。 更多AI应用案例:紧随生成式 AI 技术潮流,我们将大型活动与 AI 融合,暑期活动成为 AI 实践的关键项目之一。每个活动包括前期设定探索

超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件

前言 相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过 ComfyUI。 ComfyUI 是 一个基于节点流程的 Stable Diffusion 操作界面,可以通过流程,实现了更加精准的工作流定制和完善的可复现性。每一个模块都有特定的的功能,我们可以通过调整模块连接达到不同的出图效果。但节点式的工作流也提高了一部分使用门槛。同时,因为内部生成流程做了优化,生成图片时的速度相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行

AI科普指南!Midjourney 的诞生之旅(附实用技巧和案例)

本文从什么是人工智能,Midjourney 的操作指南和商用案例3个方面,帮你快速入门Midjourney。 更多Midjourney技巧:

Midjourney 实战案例!KV设计从需求到落地全流程

本文以二次元节目 KV 为例,通过 Midjourney 从最初的需求到最终的方案落地全流程。根据需求方给出的需求,要做一个二次元的节目 KV,这是一个类似于广播站的项目,且需要有演播厅的氛围。 更多AI绘画实战:一、构思 在开始制作之前,我已经开始构思这个项目的大概场景。这是一个电台的场景,如下图所示:第一步就是找参考,从需求方提供的信息来看,我们需要找到符合所需的卡通 Q 版风格的参考图。 为此我找到了一个叫做 Chibi style 的艺术风格,他们的 KV 效果图如下图所示:二、炼图 以关键词 Chibi

超详细的 Stable Diffusion 学习指南:ControlNet 基础教程

今天的文章我将为你娓娓道来关于 ControlNet 的起源介绍、安装方法和使用技巧。 下篇:更多相关干货:

Midjourney实战教程!如何用AI快速生成好看的真人照片?

我从未见到过哪些工具会取代人,我倒是经常见到正因为是通过人的使用才让这些工具充满价值。 先邀请大家我们一起进行一个小游戏互动,下面一组图片我们筛选一下看哪些是真人照片哪些是 AI 生成的,答案我就放在结尾为大家揭秘。大家选择完毕后,接下来我将为大家带来关于介绍是如何通过 Midjourney 来生成好看的照片,以及怎样在实践项目中运用这些照片。 往期干货:一、为什么要使用真人照片 1. 照片的由来 要问为什么要使用 Midjourney 来生成真人照片,那么我们先从照片的历史来切入,照片的历史由来可以分为五个阶段(

想深度掌握AI?先搞懂语言大模型:技术原理

作为一个曾经的 VUI 领域从业者,LLM 出现后非常想要弄清大模型对 VUI 领域的影响,于是有了此文。 本文部分内容由 GPT 协助完成。 相关干货:技术原理 1. LLM ①定义和特点 LLM 是语言模型(Language Model)的一种,简单来说,LLM 通过学习大量的文本数据,例如文章、对话和网页等,来预测下一个词或下一段话的可能性,从而使计算机能够更好地理解和生成人类语言。 LLM 的核心特点包括自动化训练、大规模的数据训练、更强的上下文感知能力、多模态生成。 一般 LLM 指参数数量超过 10 亿

ControlNet 重大更新!直接复制图像风格,可配合 SDXL 大模型使用

大家好,这里是和你们一起探索 AI 绘画的花生~ 知名 Stable Diffusion 插件 ControlNet 在 9 月初迎来了一次比较大的更新,新增了 Recolor 和 IP-Adapter 2 个新模型,更重要的是支持 xl 系列的控制模型,可以配合 SDXL 大模型使用,今天就一起来看看如何在 Stable Diffusion WebUI 中使用这些新模型~ 往期回顾:一、Controlnet 插件更新 ControlNet v1.1.4 更新介绍: (重要,必看) 因为要兼容 SDXL 的生态,