$$
\omega_{t+1} = \omega_t - \alpha \nabla f(\omega_t)
$$
- $\alpha$为学习率
- $\nabla f(\omega_t)$为梯度
$$
\omega_{t+1} = \omega_t - \alpha \nabla f(\omega_t)
$$
dreamBooth
, lora
, lycoris
说实话我感受不到这个微调方式的任何优势, 属于花好几倍的时间, 呈现出来的效果却不理想, 不管是人物训练还是画风训练, 而且对显存要求也高, 最后的模型还很大!
推荐指数: 极低
这是原ai图, 是用sd的一个微调模型生成的:
这是修复后的图:
用sd的inpaint
局部重绘? 然后加上controlNet
? 各种教程的都教人这么去搞, 然后效果就是一坨! 首先重绘出一只完美的手就要换时间不停重试,
好不容易roll出一只好手, 重绘区域却和整体图片有违和感, 对于违和感是0容忍的, 对于一幅插画来说, 这比手脚崩坏严重多了; 在无数次重试,
我发现几个小时就过了…
总结, 重绘就是陷阱, 不要陷进去, 至少目前是这样的, 未来不好说
danbooru tag
爬图的脚本, 没什么第三方依赖, 想用直接copy去跑就行your_username
和your_password
替换成你的danbooru账号密码(账号在https://danbooru.donmai.us注册)tag
填上要爬取的tag, save_dir
为爬取的图片的保存路径use_proxy
置为True
, 然后改下proxies
变量的代理地址即可$
单行公式 $
$$
多行公式 $$
\\
公式内换行符\!
跟随\,
小空格\;
中空格\
大空格(约1字符)\quad
巨大空格(约2字符)\qquad
超巨大空格(约4字符)_
下标 ^
上标