Stable Diffusion
该更新啦!6款超好用的SDXL负面提示词Embedding模型
大家好我是花生~
SDXL 1.0 模型发布以来,优质的 SDXL 大模型不断涌现,让图像的生成质量越来越高。但版本迭代后,之前的 SD1.5 的负面提示词 Embedding 并不能和 SDXL 大模型配合使用,而每次都输入一大串的反向提示词又实在麻烦。所以今天就继续给大家推荐 6 款可以配合 SDXL 模型使用的负面提示词 Embedding,它们可以在 SD WebUI 和 ComfyUI 中使用,能有效修复图像缺陷,提升画面细节和质感。
上期回顾:一、UnaestheticXL
链接直达: (文末有资源包
11/17/2023 8:28:39 AM
夏花生
超详细!Stable Diffusion 卡通IP调整姿势保姆级教程
已有 IP 如下所示图左,希望将改成类似图右的姿势,该怎么用Stable Diffusion 实现呢,完整教程来了!
往期教程:首先经过测试 SD 的 Controlnet Openpose 无法识别卡通形象的骨骼,因此需要我们用 Openpose editer 手动添加骨骼图,大致得到以下骨骼图,点击按钮发送到 Controlnet,为了方便后续使用,可以将骨骼图下载下来备用;接下来的思路:首先需要在 SD 中跑出和图 1 形象,这样后续才可以在 SD 中做控制和重绘等工作,并让形象按新骨骼换姿势
得到相似度高的
11/16/2023 7:12:53 AM
南河与参宿|视觉设计师
三秒4张图!让 Stable Diffusion 出图速度暴增的新一代生成模型LCM
大家好,这里是和你们一起探索 AI 的花生~
最近一种新的图像生成形式逐渐兴起,即生成的图像会随输入的文字或笔画动作迅速变化,这让图像生成有了更多灵活探索和准确控制的空间。这种「实时反馈」的感觉源于模型能在几秒钟内,根据输入生成新的内容,而之所以能有这么快的生成速度,依靠的就是 LCM 这项新技术。视频内容来源: :
一、LCM 简介
LCM 项目主页:
Github 主页:
LCM 全称 Latent Consistency Models(潜在一致性模型),是清华大学交叉信息科学研究院研发的一款生成模型。它
11/15/2023 8:17:12 AM
夏花生
实战案例!如何快速通过Stable Diffusion生成角色固定姿势?
本文主要分为两部分:软件篇(如何搭建 Stable Diffusion 环境)
实战篇(如何完成一张立绘)软件部分会为大家推荐一些 B 站优秀的 UP 主的教程,讲解的十分详细。
本文会先带大家了解模型、VAE 和 LORA 这三个概念。而实战部分会以出草图 - 大量 AI 出图 - 局部修改(AI 迭代)- 再次修改,这样一个过程。
AI角色相关干货:一、软件篇
前期需要准备:Stable Diffusion 本地包、Stable Diffusion 模型、VAE 和 LORA。
1. Stable Diffus
11/13/2023 7:00:58 AM
团队ASAK设计
神仙插件 LightFlow!一键复用SD WebUI工作流
大家好,这里是和你们一起探索 AI 绘画的花生~
今天为大家推荐一个非常好用的 Stable Diffusion WebUI 插件 LightFlow,它可以将一张图像的生成参数和相关设置保存为文件,这样无论是复用图像生成信息还是分享给别人都非常方便,可以有效提升我们的出图效率。
:一、LightFlow 简介
Github 主页:
官方飞书文档:
LightFlow 开源社区:
在 WebUI 中,当我们想复现某张图像的效果时,一般会去「图像浏览库」中找到对应的图像,然后将生成信息发送到文生图中进行修改。这
11/9/2023 7:35:49 AM
夏花生
如何用Stable Diffusion 把黑白老照片变成彩色高清图?教程来了!
在这个时代,我们习惯于拥有高清、色彩丰富的照片,然而,那些古老的黑白色老照片由于年代的久远,往往会出现模糊、破损等现象。
那么今天要给大家介绍的是,用 Stable Diffusion 来修复老照片。
前段时间 ControlNet 的除了上线了“IP-Adapter”模型以外还增加另一个叫“Recolor”的模型,它的作用就是给图片重新上色。通过“Recolor”,我们能够让那些古老的黑白色老照片重现生机,展现出它们原本应有的色彩和细节。
更多SD教程:一、插件以及模型下载
本文需要用到的插件、脚本以及模型如下:
10/30/2023 12:01:12 AM
智影AI
超详细!Stable Diffusion 真人照片转动漫风格保姆级教程
相信我们很多人在看过动漫/动画后,都想看一看二次元世界中的自己长什么样子,那今天就以客户照片为例,说说我们如何用 Stable Diffusion,让 AI 帮我们将真实照片转成一个绝美二次元少女,Let’s do it~
更多SD干货:客户原图照片如下,希望转成二次元甜美少女。1. 打开 Web UI ,用 Tag 反推,辅助书写关键词用 Tag 反推中传入照片,点击反推得到红框中大致的画面内容描述词
1girl, solo, looking up, brown hair, belt, long hair, ar
10/25/2023 8:00:43 AM
南河与参宿|视觉设计师
大厂出品!如何用 ControlNet 实现精准的画面色彩控制?
颜色控制一直是 AIGC 的难点,prompt 会污染、img2img 太随机… 今天带来利用controlnet,实现对画面颜色的有效控制。都说AIGC是抽卡,但对把它作为工具而非玩具的设计师,必须掌握如何控制它,让我们一起开始可控AI生成。
更多相关干货:一、想给 AI 点颜色瞧瞧,怎么这么难
大家或许已经通过各种《三分钟包会》《五分钟出道》的教程,可以手拿把掐的将一张商品图,完美植入需要的背景中。客观的说,无论从角度、投影、还是商品与背景的语义关系,以下都能算是合格的图片。但是作为视力 255³的设计师,总能
10/21/2023 6:41:51 AM
团队京东JellyDesign
效率暴涨!5 款设计师必备的 Stable Diffusion WebUI 模型(三)
大家好,这里是和你们一起探索 AI 绘画的花生~
今天继续为大家推荐 5 款优质的设计类 Stable Diffusion WebUI 风格模型,包含电商设计、产品摄影、矢量扁平插画、古风工笔等多种风格。一、设计 | 电商展台
一款非常优秀的电商展台设计模型,包含极简、国风、科技、风景等多种风格,适用范围很广,质感也很棒,生成的图像非常适合作为电商、产品的背景设计素材。模型类型:XL Lora (安装路径:models\Lora)
下载地址: (附件有资源包)
推荐设置:生成步数:35-40;尺寸 768-128
10/19/2023 7:47:22 AM
夏花生
超详细的 Stable Diffusion ComfyUI 基础教程(四):图生图流程
想一下,在我们使用 web UI 图生图的时候,他比文生图多了什么,是不是多了个加载图像的位置。
我们怎么才能把图片转成可以被识别的信息呢,我们需要把图片解码成可以被识别的信息。
上期回顾:一、创建流程
1. 同样,我们先打开文生图基础流程,我们这个基础上把图生图流程加进去;
2. 我们“右键——新建节点——图像——加载图像”,然后把图片传上去;
3. 我们在加载图像上鼠标点击住“图像”往外拉,松开然后选择“VAE 解码”;
4. 我们再把“VAE 解码的 Latent”和“采样器的 Latent”链接,“VAE”
10/17/2023 12:02:47 AM
搞设计的花生仁
Stable Diffusion Art!百科全书式AI绘画教程网站
大家好,这里是和你们一起探索 AI 绘画的花生~
Stable Diffusion 是目前非常受欢迎的 AI 绘画模型,想必很多小伙伴都用过它。今天为大家推荐一个非常棒的 Stable Diffusion 免费教程网站 Stable Diffusion Art,里面包含系统的新手入门引导、多种进阶教程以及对专业概念解释,非常适合刚接触 Stable Diffusion 小伙伴。
上期回顾:Stable Diffusion Art 简介
网站链接直达:
Stable Diffusion Art 的网站内容主要可以分
10/11/2023 12:21:23 AM
夏花生
AIGC大厂实战!京东城市消费券项目完整复盘!
随着 AI 图像生成技术的高速发展,以 Midjourney、Stable diffusion 为例的 AI 工具引起了大家广泛的研究和应用浪潮,也印证了早期流传在 AIGC 圈的一句话“任何行业都值得用 AI 重新做一遍”。面对时代趋势,团队早在 22 年底就开展了 AIGC 在「电商行业领域」的研究和探索,旨在运用新技术帮助团队提升工作效率和质量,高效地解决业务难题。
更多AIGC实战案例:1. 业务背景
23 年初我们团队接到城市消费券的业务需求,业务同学希望快速推动支付券向东券转移,通过产品及活动页面运营,
10/3/2023 12:17:53 AM
团队京东JellyDesign
超详细的 Stable Diffusion ComfyUI 基础教程(三):Refiner 细化流程
前言:上节课我们学习了文生图的基础流程,接下来我们玩个复杂的,把 refiner 模型串联进去。
那我们想一下,refiner 模型的工作流程是什么样的呢,使用 refiner 模型的时候我们比基础流程多了哪些操作呢?
是通过 base 模型绘制一部分后,然后使用 refiner 模型进行绘制。多了 refiner 模型加载器,多了 refiner 模型切换时机。上期回顾:一、创建流程加载 refiner 模型:
我们先把上节课的流程打开,在空白地方(文生图下方就可以,不要太远)添加一个 Checkpoint 加载
9/30/2023 12:48:41 AM
搞设计的花生仁
万字干货!一口气掌握14种 ControlNet 官方控图模型的使用方法!
在上一篇里我已经为大家介绍了关于 ControlNet 的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍 14 种官方控图模型的差异和使用技巧,以及最近刚面向 SDXL 更新的社区模型。一、官方模型和社区模型
前文我们提到 ControlNet 模型是由张吕敏开源的,目前开源的模型包括以下这 14 种,作为 ControlNet 的布道者,我们可以将这些称之为经典的官方模型。
官方模型下载地址: ,但最近新的 SDXL 大模型发布后还没有做适配,之前的 ControlN
9/27/2023 1:07:00 AM
乐伊ROY
AIGC大厂案例实战!如何用AI完成虚拟演播厅的设计方案?
相信大家已经看过很多 AI 辅助设计流程的文章,AI 正在渗透着各行各业。
本文主要介绍如何通过 AI 工具辅助游戏虚拟演播厅视觉概念稿,通过 Midjourney 和 Stable Diffusion 的组合,实现项目快速落地。
更多AI实战案例:一、拆解主题元素
首先需求方提出这次的主题“龙虎争霸”,希望有对抗的氛围。经常做演播厅的同学应该知道,演播厅常分为三个部分:解说区域,背景板区域以及背景。
对此,我们可将区域拆解分开制作,提高效率。先根据主题和 KV 构思下场景的组成:龙,虎和山海,国风的主题比较贴合。
9/26/2023 1:34:25 AM
团队ASAK设计
超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
前言:
1. 这节课我们开始学习 ComfyUI,我们先从最基础的文生图开始学起。为了方便讲解(方便我这英语不好的人),我文章中的节点大多都是汉化之后的,和我一样英语不好的小伙伴还请看我上篇内容,安装汉化插件。
上期回顾:2. 在学习前我们先回忆一下使用 Web UI 进行文生图的时候用到了哪些功能。3. 是不是有大模型、正向提示词、反面提示词、采样器、步数、宽高、VAE、显示图像。既然我们知道有哪些节点,就把他们按照流程去连起来吧。
一、创建流程
大模型加载器:
1. “右键——新建节点——加载器”我们会看到很多
9/26/2023 1:26:08 AM
搞设计的花生仁
超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件
前言
相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过 ComfyUI。
ComfyUI 是 一个基于节点流程的 Stable Diffusion 操作界面,可以通过流程,实现了更加精准的工作流定制和完善的可复现性。每一个模块都有特定的的功能,我们可以通过调整模块连接达到不同的出图效果。但节点式的工作流也提高了一部分使用门槛。同时,因为内部生成流程做了优化,生成图片时的速度相较于 webui 有明显提升,对显存要求也更低(4G 就能很好的运行
9/25/2023 5:33:36 AM
搞设计的花生仁
超详细的 Stable Diffusion 学习指南:ControlNet 基础教程
今天的文章我将为你娓娓道来关于 ControlNet 的起源介绍、安装方法和使用技巧。
下篇:更多相关干货:
9/21/2023 8:51:57 AM
乐伊ROY
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
开源
用户
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
预测
人形机器人
百度
苹果
伟达
Transformer
深度学习
xAI
模态
字节跳动
Claude
大语言模型
搜索
具身智能
驾驶
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
干货合集
训练
应用
大型语言模型
科技
亚马逊
DeepMind
特斯拉
智能体