AIGC宇宙 AIGC宇宙

Stable Diffusion

该更新啦!6款超好用的SDXL负面提示词Embedding模型

大家好我是花生~ SDXL 1.0 模型发布以来,优质的 SDXL 大模型不断涌现,让图像的生成质量越来越高。但版本迭代后,之前的 SD1.5 的负面提示词 Embedding 并不能和 SDXL 大模型配合使用,而每次都输入一大串的反向提示词又实在麻烦。所以今天就继续给大家推荐 6 款可以配合 SDXL 模型使用的负面提示词 Embedding,它们可以在 SD WebUI 和 ComfyUI 中使用,能有效修复图像缺陷,提升画面细节和质感。 上期回顾:一、UnaestheticXL 链接直达:  (文末有资源包
11/17/2023 8:28:39 AM
夏花生

超详细!Stable Diffusion 卡通IP调整姿势保姆级教程

已有 IP 如下所示图左,希望将改成类似图右的姿势,该怎么用Stable Diffusion 实现呢,完整教程来了! 往期教程:首先经过测试 SD 的 Controlnet Openpose 无法识别卡通形象的骨骼,因此需要我们用 Openpose editer 手动添加骨骼图,大致得到以下骨骼图,点击按钮发送到 Controlnet,为了方便后续使用,可以将骨骼图下载下来备用;接下来的思路:首先需要在 SD 中跑出和图 1 形象,这样后续才可以在 SD 中做控制和重绘等工作,并让形象按新骨骼换姿势 得到相似度高的
11/16/2023 7:12:53 AM
南河与参宿|视觉设计师

三秒4张图!让 Stable Diffusion 出图速度暴增的新一代生成模型LCM

大家好,这里是和你们一起探索 AI 的花生~ 最近一种新的图像生成形式逐渐兴起,即生成的图像会随输入的文字或笔画动作迅速变化,这让图像生成有了更多灵活探索和准确控制的空间。这种「实时反馈」的感觉源于模型能在几秒钟内,根据输入生成新的内容,而之所以能有这么快的生成速度,依靠的就是 LCM 这项新技术。视频内容来源: : 一、LCM 简介 LCM 项目主页: Github 主页: LCM 全称 Latent Consistency Models(潜在一致性模型),是清华大学交叉信息科学研究院研发的一款生成模型。它
11/15/2023 8:17:12 AM
夏花生

实战案例!如何快速通过Stable Diffusion生成角色固定姿势?

本文主要分为两部分:软件篇(如何搭建 Stable Diffusion 环境) 实战篇(如何完成一张立绘)软件部分会为大家推荐一些 B 站优秀的 UP 主的教程,讲解的十分详细。 本文会先带大家了解模型、VAE 和 LORA 这三个概念。而实战部分会以出草图 - 大量 AI 出图 - 局部修改(AI 迭代)- 再次修改,这样一个过程。 AI角色相关干货:一、软件篇 前期需要准备:Stable Diffusion 本地包、Stable Diffusion 模型、VAE 和 LORA。 1. Stable Diffus
11/13/2023 7:00:58 AM
团队ASAK设计

神仙插件 LightFlow!一键复用SD WebUI工作流

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天为大家推荐一个非常好用的 Stable Diffusion WebUI 插件 LightFlow,它可以将一张图像的生成参数和相关设置保存为文件,这样无论是复用图像生成信息还是分享给别人都非常方便,可以有效提升我们的出图效率。 :一、LightFlow 简介 Github 主页: 官方飞书文档: LightFlow 开源社区: 在 WebUI 中,当我们想复现某张图像的效果时,一般会去「图像浏览库」中找到对应的图像,然后将生成信息发送到文生图中进行修改。这
11/9/2023 7:35:49 AM
夏花生

如何用Stable Diffusion 把黑白老照片变成彩色高清图?教程来了!

在这个时代,我们习惯于拥有高清、色彩丰富的照片,然而,那些古老的黑白色老照片由于年代的久远,往往会出现模糊、破损等现象。 那么今天要给大家介绍的是,用 Stable Diffusion 来修复老照片。 前段时间 ControlNet 的除了上线了“IP-Adapter”模型以外还增加另一个叫“Recolor”的模型,它的作用就是给图片重新上色。通过“Recolor”,我们能够让那些古老的黑白色老照片重现生机,展现出它们原本应有的色彩和细节。 更多SD教程:一、插件以及模型下载 本文需要用到的插件、脚本以及模型如下:
10/30/2023 12:01:12 AM
智影AI

超详细!Stable Diffusion 真人照片转动漫风格保姆级教程

相信我们很多人在看过动漫/动画后,都想看一看二次元世界中的自己长什么样子,那今天就以客户照片为例,说说我们如何用 Stable Diffusion,让 AI 帮我们将真实照片转成一个绝美二次元少女,Let’s do it~ 更多SD干货:客户原图照片如下,希望转成二次元甜美少女。1. 打开 Web UI ,用 Tag 反推,辅助书写关键词用 Tag 反推中传入照片,点击反推得到红框中大致的画面内容描述词 1girl, solo, looking up, brown hair, belt, long hair, ar
10/25/2023 8:00:43 AM
南河与参宿|视觉设计师

大厂出品!如何用 ControlNet 实现精准的画面色彩控制?

颜色控制一直是 AIGC 的难点,prompt 会污染、img2img 太随机… 今天带来利用controlnet,实现对画面颜色的有效控制。都说AIGC是抽卡,但对把它作为工具而非玩具的设计师,必须掌握如何控制它,让我们一起开始可控AI生成。 更多相关干货:一、想给 AI 点颜色瞧瞧,怎么这么难 大家或许已经通过各种《三分钟包会》《五分钟出道》的教程,可以手拿把掐的将一张商品图,完美植入需要的背景中。客观的说,无论从角度、投影、还是商品与背景的语义关系,以下都能算是合格的图片。但是作为视力 255³的设计师,总能
10/21/2023 6:41:51 AM
团队京东JellyDesign

效率暴涨!5 款设计师必备的 Stable Diffusion WebUI 模型(三)

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天继续为大家推荐 5 款优质的设计类 Stable Diffusion WebUI 风格模型,包含电商设计、产品摄影、矢量扁平插画、古风工笔等多种风格。一、设计 | 电商展台 一款非常优秀的电商展台设计模型,包含极简、国风、科技、风景等多种风格,适用范围很广,质感也很棒,生成的图像非常适合作为电商、产品的背景设计素材。模型类型:XL Lora (安装路径:models\Lora) 下载地址: (附件有资源包) 推荐设置:生成步数:35-40;尺寸 768-128
10/19/2023 7:47:22 AM
夏花生

超详细的 Stable Diffusion ComfyUI 基础教程(四):图生图流程

想一下,在我们使用 web UI 图生图的时候,他比文生图多了什么,是不是多了个加载图像的位置。 我们怎么才能把图片转成可以被识别的信息呢,我们需要把图片解码成可以被识别的信息。 上期回顾:一、创建流程 1. 同样,我们先打开文生图基础流程,我们这个基础上把图生图流程加进去; 2. 我们“右键——新建节点——图像——加载图像”,然后把图片传上去; 3. 我们在加载图像上鼠标点击住“图像”往外拉,松开然后选择“VAE 解码”; 4. 我们再把“VAE 解码的 Latent”和“采样器的 Latent”链接,“VAE”
10/17/2023 12:02:47 AM
搞设计的花生仁

Stable Diffusion Art!百科全书式AI绘画教程网站

大家好,这里是和你们一起探索 AI 绘画的花生~ Stable Diffusion 是目前非常受欢迎的 AI 绘画模型,想必很多小伙伴都用过它。今天为大家推荐一个非常棒的 Stable Diffusion 免费教程网站 Stable Diffusion Art,里面包含系统的新手入门引导、多种进阶教程以及对专业概念解释,非常适合刚接触 Stable Diffusion 小伙伴。 上期回顾:Stable Diffusion Art 简介 网站链接直达: Stable Diffusion Art 的网站内容主要可以分
10/11/2023 12:21:23 AM
夏花生

AIGC大厂实战!京东城市消费券项目完整复盘!

随着 AI 图像生成技术的高速发展,以 Midjourney、Stable diffusion 为例的 AI 工具引起了大家广泛的研究和应用浪潮,也印证了早期流传在 AIGC 圈的一句话“任何行业都值得用 AI 重新做一遍”。面对时代趋势,团队早在 22 年底就开展了 AIGC 在「电商行业领域」的研究和探索,旨在运用新技术帮助团队提升工作效率和质量,高效地解决业务难题。 更多AIGC实战案例:1. 业务背景 23 年初我们团队接到城市消费券的业务需求,业务同学希望快速推动支付券向东券转移,通过产品及活动页面运营,
10/3/2023 12:17:53 AM
团队京东JellyDesign

超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程

前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。 那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢? 是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型: 我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载
9/30/2023 12:48:41 AM
搞设计的花生仁

万字干货!一口气掌握14种 ControlNet 官方控图模型的使用方法!

在上一篇里我已经为大家介绍了关于 ControlNet 的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍 14 种官方控图模型的差异和使用技巧,以及最近刚面向 SDXL 更新的社区模型。一、官方模型和社区模型 前文我们提到 ControlNet 模型是由张吕敏开源的,目前开源的模型包括以下这 14 种,作为 ControlNet 的布道者,我们可以将这些称之为经典的官方模型。 官方模型下载地址: ,但最近新的 SDXL 大模型发布后还没有做适配,之前的 ControlN
9/27/2023 1:07:00 AM
乐伊ROY

AIGC大厂案例实战!如何用AI完成虚拟演播厅的设计方案?

相信大家已经看过很多 AI 辅助设计流程的文章,AI 正在渗透着各行各业。 本文主要介绍如何通过 AI 工具辅助游戏虚拟演播厅视觉概念稿,通过 Midjourney 和 Stable Diffusion 的组合,实现项目快速落地。 更多AI实战案例:一、拆解主题元素 首先需求方提出这次的主题“龙虎争霸”,希望有对抗的氛围。经常做演播厅的同学应该知道,演播厅常分为三个部分:解说区域,背景板区域以及背景。 对此,我们可将区域拆解分开制作,提高效率。先根据主题和 KV 构思下场景的组成:龙,虎和山海,国风的主题比较贴合。
9/26/2023 1:34:25 AM
团队ASAK设计

超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程

前言: 1. 这节课我们开始学习 ComfyUI,我们先从最基础的文生图开始学起。为了方便讲解(方便我这英语不好的人),我文章中的节点大多都是汉化之后的,和我一样英语不好的小伙伴还请看我上篇内容,安装汉化插件。 上期回顾:2. 在学习前我们先回忆一下使用 Web UI 进行文生图的时候用到了哪些功能。3. 是不是有大模型、正向提示词、反面提示词、采样器、步数、宽高、VAE、显示图像。既然我们知道有哪些节点,就把他们按照流程去连起来吧。 一、创建流程 大模型加载器: 1. “右键——新建节点——加载器”我们会看到很多
9/26/2023 1:26:08 AM
搞设计的花生仁

超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件

前言 相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过 ComfyUI。 ComfyUI 是 一个基于节点流程的 Stable Diffusion 操作界面,可以通过流程,实现了更加精准的工作流定制和完善的可复现性。每一个模块都有特定的的功能,我们可以通过调整模块连接达到不同的出图效果。但节点式的工作流也提高了一部分使用门槛。同时,因为内部生成流程做了优化,生成图片时的速度相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行
9/25/2023 5:33:36 AM
搞设计的花生仁

超详细的 Stable Diffusion 学习指南:ControlNet 基础教程

今天的文章我将为你娓娓道来关于 ControlNet 的起源介绍、安装方法和使用技巧。 下篇:更多相关干货:
9/21/2023 8:51:57 AM
乐伊ROY