Lora模型
1. Lora模型tag 1.1 打tag路径 1.2 打tag准备 1.3 分类进行打tag 2. Lora模型训练核心参数 2.1 步数相关 repeat / epoch / batch_size 2.1.1 image训练集tag文本 2.1.2 repeat 2.1.3 epoch 2.1.4 batch_size 2.1.5 total optimization steps(总训练步数) 2.2 速率/质量相关 Ir学习率 / Dim网络维度 / Optimizer优化器 2.2.1 学习率 2.2.2 Network dimension(Dim网络维度) 3. 参数和模型之间的联动关系 3.1 只调整repeat 3.2 只调整repeat和epoches 3.3 只调整学习率 4. 新手参数建议1. Lora模型tag
1.1 打tag路径
1.2 打tag准备
还有一个重要的点,就是你想固化的特征不要去打tag,打的tag不是单纯的对图片进行描述,还要考虑到是否是变量, tag尽量都是变量,也就是说是你期望模型生成的时候可以根据你的文字改变的。举个例子,一个红头发女孩,如果tag里面有red hair,AI会认为这个是可变量,后面模型生成的时候你输入white hair就可以生成白发女孩,但如果tag里面没有red hair,AI会认为红发是这个女孩的本身特征是固定的,即使模型后面输入white hair,生成的女孩也只会是红发不会变白发。
如何从零开始训练一个高质量的LoRA模型 - 哔哩哔哩 (bilibili.com)
参考这篇博客对于tag部分的说明。所以总而言之,tag是变量,是未来想灵活调整的可以被替换的内容,如果不想被替换的就不要写。
————————————————
版权声明:本文为CSDN博主「不学能干嘛」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/m0_59805198/article/details/135070297
1.3 分类进行打tag
视频:lora训练教程
2. Lora模型训练核心参数
2.1 步数相关 repeat / epoch / batch_size
2.1.1 image训练集tag文本
2.1.2 repeat
2.1.3 epoch
epoch多轮次比单轮次要好,通过设置可以每轮保存一组模型,多轮次说明有多组模型,得到好概率的可能是比单轮次就一个模型的概率是要高的,epoch一般设置5~10;
epoch=repeat*图片数量
2.1.4 batch_size
取决硬件
同一时间学习几张图片
收敛;AI最终出来的图片跟你的原图有多像,原图越像,收敛越好
batch_size加大,收敛越慢
batch_size要是高,一是可能显存带不动,二是值越高训练越快 越可能学得囫囵吞枣收敛得慢。
BS从1到2,Ir就要*2
2.1.5 total optimization steps(总训练步数)
2.2 速率/质量相关 Ir学习率 / Dim网络维度 / Optimizer优化器
2.2.1 学习率
2.2.2 Network dimension(Dim网络维度)
### 2.2.3 Optimizer(优化器)