底模:SDXL
主页:https://www.liblib.art/modelinfo/57438ca97a1d4c76b68b85afa455108d
版本:v3.1
V3.1已更新:提高了模型出图质量的下限,优化了整体构图。请在文生图界面出图后将图片发送到图生图界面并选择脚本SD upscale,分块放大图片,以达到理想质量。参数如下
___________________________________________________________________________________________________________________________
注意事项(必看):
1.原始分辨率请设置为1024x1024以上,由于画布较大,prompt要尽可能的多一些,否则会古神,Hiresfix倍数可以调低一些,Steps: 25, Sampler: DPM++ SDE Karras, CFG scale: 7,Clip:2
2.SDXL系二次元模型拟合相对困难,很难做到所谓的“1girl出好图”,所以对使用者的prompt书写能力会有所要求。prompt学习指路→元素同典:确实不完全科学的魔导书 https://docs.qq.com/doc/DWFdST***QWRzYk9k -元素法典制作组
3.请务必使用SDXL的修复版VAE: https://huggingface.co/bdsqlsz/stable-diffusion-xl-base-1.0_fixvae_fp16 -青龙圣者
4.训练底模推荐: https://civitai.com/models/125721/finalyuananimeandcg -【Final】制作组
模型介绍:SDXL-Anime | 天空之境 V3.0是个人探索SDXL二次元风格训练流程的大胆尝试。重新制定了训练流程,使用了1000+张高质量图片,经过6次迭代总计60w步的训练,3.0版本已经可以在SDXL上还原1.x系模型的画风特化效果,并且拥有更强的笔触还原,更泛化的脸部,更严格的prompt要求以及更广的风格词兼容
作者的一些话(胡言乱语):一开始打算炼这个模型的时候,很多人都和我说这毫无意义,XL二次元就是不如NAI,1.X已经够用了,白费力气何必呢等等,但是我不信。虽然我不懂代码,纯靠大佬喂饭玩AI,但我觉得SDXL是应该比SD1.X强的,XL才是未来,技术永远是在进步的。事实证明,我是对的,XL在对画师笔触的还原上远胜NAI,并且有着不可思议的泛化性,他缺的只是一个生态和一个类NAI的基底模型。
在这里解释一下,现在市面上9成9的二次元模型都是基于去年10月泄露的NAI模型训练的,而NAI模型是NAI公司基于sd1.x训练的,相当于sd1.x的二次元特化,只不过NAI公司比较力大砖飞(听说是上亿训练集加A100显卡阵列)。对于二次元社群来说,SD就是地基,NAI就是毛坯房,我们只需要装修这个毛胚房即可。但是SDXL是没有NAI帮忙特化的,我们只有地基,社区里的人需要自己造毛胚房,你一砖我一瓦的重新搭建生态。
而做这个模型的初衷就是想证明SDXL社区在失去了NAI免费搭建的“毛胚房”后,民间个体有能力炼制出XL的二次元特化画风大模型,并且可以承受这个成本
特别鸣谢:风吟的算力支持,T4的镜像支持,秋麒麟的底模支持