超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)

一、简介1.1 AI绘图1.2 Stable Diffusion1.2.1 原理简述1.2.2 应用流程

二、AI绘图工具2.1 吐司TusiArt2.2 哩布哩布LibLibAI2.3 原生部署

三、一键即用3.1 开箱尝鲜3.2 模型关联3.3 ControlNet

四、总结

一、简介

1.1 AI绘图

AI绘图就是输入一些描述语句(文生图)或者图片(图生图),AI根据输入信息可以生成创意画作。AI绘图是当下AI最火热的应用领域之一,也是生成式人工智能AIGC的一种。

常见AI绘图软件如下: (1)文心一格

文心一格是基于百度飞桨和文心大模型的文生图系统,是一种AI艺术和创意辅助平台。通过文心一格智能生产多样化创意图片,并从中汲取创意灵感,打破创意瓶颈。

(2)Midjourney

Midjourney可根据文本生成图像,于2022年7月12日进入公开测试阶段,只需要通过输入关键字,就能透过AI算法生成相应的图片,Midjourney里有众多画家的艺术风格,例如达芬奇、达利和毕加索等,还能识别特定镜头或摄影术语。

Midjourney的应用场景非常广泛,可以用于海报、IP设计、广告设计、创意设计、艺术教育、漫画创作等领域。

(3)Adobe Firefly

萤火虫(Firefly),是2023年3月22日Adobe推出的创意生成式AI,使用文字来生成图像、音频、插图、视频和3D图像。Firefly将提供构思、创作和沟通的新方式,同时显著改善创意工作流程。

(4)Stable Diffusion

Stable Diffusion是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够跟进任意文本输入生成高质量、高分辨率、高逼真的图像。相对传统的生成模型,Stable Diffusion生成的图像质量更高、速度更快、成本更低。

1.2 Stable Diffusion

本文主要基于Stable Diffusion进行分享,因为↓

1.2.1 原理简述

从名字Stable Diffusion就可以看出,这个主要采用的是扩散模型(Diffusion Model)。简而言之,扩散模型就是去噪白编码器的连续应用,逐步生成图像的过程。

Diffusion 的含义本质上就是一个迭代过程。扩散是反复在图像中添加小的、随机的噪声,而扩散模型则与这个过程相反,将噪声生成高清图像,训练的神经网络通常为U-net。

1.2.2 应用流程

流程主要分为4步:

选择正确地模型输入准确的提示词参数调整后期处理技术 (1)关于模型

Stable Diffusion模型主要分为大模型和微调模型。常见的大模型为Checkpoint(ckpt)和safetensors两种格式,通常是通过Dreambooth训练得到,特点是出图效果好,但是训练过程较慢且生成的模型文件较大;而微调模型一般需要配合大模型使用,常见包括Lora模型、VAE模型、Embedding模型和Hypernetwork模型。

本文分享主要是基于Lora模型。Lora直译为大语言模型的低阶适应。Lora文件大,保存的信息量大 ,对人物的还原、动作的指定和画风的指定效果比较好。

(2)关于提示词

Stable Diffusion提示词分为正向提示词和反向提示词,一般需要包含【画面质量】+【画面风格】+【画面主体】+【画面场景】+【其它元素】。

二、AI绘图工具

2.1 吐司TusiArt

吐司Tusi.Art是一款基于Stable Diffusion的AI图片生成平台,每天有100算力点、即可生成100张图片,且可以高清下载。

2.2 哩布哩布LibLibAI

LiblibAI基本 1:1 还原了Stable Diffusion跑图界面(有一定阉割),跑图最一目了然、简洁高效的界面,且非常容易上手。另外,LiblibAI每天也可以免费跑100张AI图,后续演示主要基于LiblibAI进行。

2.3 原生部署

本地或云端部署原生Stable Diffusion,例如阿里云云部署↓。

三、一键即用

3.1 开箱尝鲜

注册登录哩布哩布LibLibAI后,直接点击【在线生图】

进入到【在线生图】页面后,直接点击【生成图片】,开箱尝鲜。

3.2 模型关联

在主页选择一个参照模型,点进去。

点击【加入模型库】,然后鼠标移动到模型的【生成信息】,复制其中的正向提示词、反向提示词以及采样方式到【在线生图】页面中。

在【在线生图】中,CV好【生成信息】后点击【生成图片】。

如果发现脸变形有崩掉的情况,则需要调大生成图片的的宽度和高度。因为每张图片都有尺寸大小,尺寸不够且需要的元素太多就容易挤在一起导致图片崩坏。

3.3 ControlNet

ControlNet是一种神经网络概念,就是通过额外的输入来控制预训练的大模型。SD中的ControlNet插件可以通过模型精准的控制图像生成,比如:上传线稿让AI控制人物的动作姿态、边缘检测、柔和边缘和涂鸦乱画等等。

如下是一个涂鸦乱画的示例(首先需要上传一张ControlNet参考图):

上传后选择 Scribble 的Control Type,然后点击爆炸图标。

填入提示词(想象力):[A hot air balloon is floating in the sky and the full appearance of the balloon can be seen. ],然后点击【生成图片】

四、总结

至此,超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)介绍完成,后续会陆续输出更多AI绘图相关的篇章;查阅过程中若遇到问题欢迎留言或私信交流。

文章来源

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: