全koishi 最全的搭建ai绘画后端的教程收录!想用什么模型就下载什么模型!

最近有很多人说下载了novelai插件,但是不知道怎么搭建后端,也就没有办法利用koishi在QQ(或其他平台)搭建属于自己的ai绘画机器人了。

因此在这个帖子中我会向小伙伴介绍几种搭建ai绘画后端的方式,帮助你搭建属于你自己的绘画机器人。
持续更新中

5 个赞

第一种方式,novelai官网。

值得注意的是,你首先需要注册一个novelai的账号,而且此账号还需要具有点数。
注册和充值的教程可以看这个视频novelai账号注册和充值

novelai提供的会员有三种,分别是10美元、15美元、25美元,其中25美元档次的会员可以会员有效期内无限画图(指定规格),如果是连接画图机器人推荐用可以无限画图这档。

当你准备好一个有点数的机器人账号,你就可以开始部署画图机器人了。这里有一个视频,作者是il,你可以参照上面的流程进行部署,b站视频是koishi连接novelai官网

除此之外,相比于前几个月,现在novelai官网更新了一些新的东西,有兴趣可以去了解一下。

2 个赞

第二种方式,本地部署,我们这里以b站秋叶的一键包作为例子。
第一部分,关于webui
怎么下载sd-webui一键包,你可以看这个视频秋叶一键包下载和安装

除了sd-webui本体之外,你还需要下载一个启动器,这个启动器也是秋叶发布的,无论你是原生包、秋叶包还是星空包,这个启动器都能帮助你更好地部署画图机器人,启动器的教程在这个视频,秋叶启动器安装

当你把sd-webui部署完毕后,可以打开该启动器,在“高级选项”中勾选“启用api”
如图


确保已经启用api后,启动你的webui

第二部分,关于koishi
如果你像我一样使用秋叶包的话,你启动之后会得到一个网址

通常都是“http://127.0.0.1:7860
然后回到novelai插件,登录方式改为sd-webui,然后将你前面秋叶给你的网址填到API 服务器地址这里:

最后启动即可

3 个赞

本地部署的画图后端如何切换模型
首先,确保你的webui模型库真的有多个模型,如果没有,可以在网上下载模型放到
models下的Stable-diffusion文件夹,这里提供一个模型的下载网站,模型下载网站


然后,在插件市场安装一个叫sd-webui的插件

接下来,在服务器地址这一栏填入你webui所在的服务器地址,因为我koishi和webui都部署在同一台电脑,所以我这里输入的也是“http://127.0.0.1:7860

开启插件后,对koishi输入“切换模型”命令,选择你需要切换的模型即可


3 个赞

第三种方式,autodl部署
autodl的地址是https://www.autodl.com
第一部分,部署sd-webui
首先,关于如何注册autodl账号和拉取镜像,你可以参考b站小李的这个视频,autodl部署(默认镜像)


我在这里做一些补充,我这里租用的是芜湖区的a5000显卡,所以后面学术加速用的也是芜湖区的学术加速代码
–重要补充!:因为镜像原作者编写文档的时候使用的是RTX 3090显卡,我这里使用a5000显卡可能会出问题,这里推荐你们使用RTX 3090显卡测试

然后镜像是这个下载量最多的镜像,这里有一份帮助文档,你可以在上面找到一些常用的指令

创建完实例,镜像会自动拉取,实例状态是运行中时就说明拉取成功


拉取完毕后,跟着我点击这里第一个按钮,就是jupyter开头那个


进入到这个界面:

这里有很重要的一点,如果没有开启学术加速,可能会报错!!!
所以我们首先在第一行这里,输入我们所在区域的学术加速,我这里是芜湖区的,所以在第一行输入芜湖区的学术加速,然后按回车

export http_proxy=http://192.168.0.91:12798 && export https_proxy=http://192.168.0.91:12798

然后跟我一样,输入这串代码,先更新sd-webui

cd stable-diffusion-webui/
git pull

然后按回车,他会开始自动更新


更新完毕后,这时我发现我的sd此时在我的系统盘,所以接下来我输入这串代码

cd stable-diffusion-webui/
rm -rf outputs && ln -s /root/autodl-tmp outputs
python launch.py --disable-safe-unpickle --port=6006 --deepdanbooru --api --share

在这串代码中,我已经加入了api参数,所以你们如果要接入novelai画图机器人直接套用这个启动代码就可以了。
然后,输入这串代码后按回车


大概等5到10分钟,等他的进度条走完,出现
Running on local URL: http://127.0.0.1:6006

这行就说明加载完成了



最后,我们回到我们的实例界面,打开你的自定义服务,访问他


好了,跳出来这个就是你的autodl画图后端了,恭喜!你实现画图自由了

3 个赞

鉴于你已经学会在autodl上部署自己的画图后端了,
这里有一些autodl上使用webui的进阶技巧,你可以看一下
1.把sd放到数据盘
因为我们的系统盘只有25G,而我们的数据盘有足足50G,如果我们后期想在autodl上传更多模型,最后是把sd文件夹移动到数据盘为好。
看这张图


上面的autodl-tmp文件夹是数据盘,下面的stable-diffusion-webui文件夹是sd-wehui的主体,我们这是把整个stable-diffusion-webui文件夹移到autodl-tmp文件夹内,此时sd-webui的路径也就变成了

/root/autodl-tmp/stable-diffusion-webui/ 

因此,我们的启动代码也要随之发生改变,变成

cd /root/autodl-tmp/stable-diffusion-webui/
rm -rf outputs && ln -s /root/autodl-tmp outputs
python launch.py --disable-safe-unpickle --port=6006 --deepdanbooru --api --share

还有一点就是,在移动文件夹之前,你需要先用

Ctrl+c

把webui关闭先

2.连接到koishi机器人
还记得在自定义服务那里autodl给了我们一个地址吗,像这样的

http://region-8.seetacloud.com:50472/


然后我们在登录方式这里选择sd-webui,然后将这个网址粘贴进去

重启novelai插件,你发现koishi连接上你在云端部署的画图后端了

(不愧是3090,出图真快)
3.更换模型

  1. 1 通过实例监控进入公网网盘界面

3.2 设置你的访问密码

3.4 扫码添加网盘(推荐阿里网盘)

3.5 把你阿里云盘上的模型下载到服务器(一般是下载到数据盘),我这里用2G的momoko-e 模型做示范


3.6 把刚刚下载完成的模型移到放模型的文件夹,这里一般默认是

stable-diffusion-webui/models/Stable-diffusion

如果放在数据盘则是

 /root/autodl-tmp/stable-diffusion-webui/models/Stable-diffusion


3.7 重启 webui,把模型切换为我们刚刚下载的那个模型


可以看到,koishi这里的模型已经变了

2 个赞

重要补充
考虑到小伙伴在autodl搭建会遇到很多问题,想要找人请教,如果有一个答疑的地方再好不过,所以我这里更推荐小李修改过后的镜像,这个up更新了一系列云端部署webui的视频,几乎你遇到的问题都能在他的评论区找到答案,同时up主小李也有一个粉丝交流群,你可以在该up主的b站主页找到群号并加入,视频教程在AI绘画云端部署全流程教程

3 个赞

哇 好详细的教程!之前自己操作就只到安装使用,更换模型这些操作都没用过也不太懂 看了这篇教程以后感觉有方向了!强烈支持!

2 个赞

如何接入qq可以看其他教程,这里只教如何搭建画图后端

3 个赞

顶一下
这里是小尾巴

3 个赞

现在已经实现无魔法注册kaggle账号了,近期也会更新关于kaggle搭建webui的内容

3 个赞

风吟赛高紫薯布丁

2 个赞

常看常新!紫薯布丁!

4 个赞

后续计划:使用kaggle或Colab搭建后端,有想看的在这里留个言

3 个赞

有没有办法把我colab里搭的stable diffusion接进来呀?蹲个教程

3 个赞

和 autodl 应该差不多吧,搭好之后在 koishi 里接入 colab 搭好的 API 就可以了

1 个赞

现在云端搭建ai后端的方式多了好多,等我不忙了在这个教程补充上去
(才不是鸽呢)

3 个赞

论坛给我在下面显示(推送?)了这篇文
为什么呢? :smiley_cat:

2 个赞