こんにちは!悠です!
今回は下記のRedditの記事で紹介されていた、「Stable Diffusion WebUI」のimg2imgを使って生成したAIイラストを簡単に高画質化できる拡張機能「Loopback_scaler」の使い方について紹介していきます。
Another way of upscaling in Auto1111
by u/Bra2ha in StableDiffusion
私が一番おすすめしている高画質化専用の拡張機能「MultiDiffusion」に匹敵するクオリティだったので、より大きい画像サイズを生成したい方やイラストのディテールを精細にしたい方はぜひ試してみてください!
「Loopback scaler」とは?
拡張機能「Loopback scaler」は、反復プロセスを使用して画像の解像度と品質を向上させるWebUI専用のPythonスクリプトです。
Hires.fixやMultiDiffusionはtxt2imgでも使えましたが、この拡張機能はimg2img専用のアップスケーラーになっています。
大きな特徴として、高画質化する画像に書き込むディテールの量や、出力画像のシャープネス・明るさ・色・コントラストを事前に設定しておくことができるんですね。
これが非常に便利でうまく設定すれば、MultiDiffusionによるアップスケールに匹敵するほどの出来栄えになります。
ただ1つだけ欠点があり、MultiDiffusionよりも大量のVRAMを消費します。

GTX1660Tiでは、MultiDiffusionなら768×512を2倍にアップスケールできるんですが、Loopback scalerだと1.5倍が限界でした。
「Loopback scaler」の導入方法
Google Colaboratory版の場合
下記の方法で紹介している「maintained by Akaibu」のノートブックを使って、拡張機能「Loopback scaler」を導入していきます。
まだご覧になっていない方は、まず最初にこちらを準備しておいてください。


Google Driveからモデルデータを読み込むセルの下に新しくセルを作成し、下記のコードを入力してください。
#Loopback scalerをインストール %cd /content/stable-diffusion-webui/extensions/ !git clone https://github.com/Elldreth/loopback_scaler /content/stable-diffusion-webui/extensions/loopback_scaler %cd /content/stable-diffusion-webui
img2imgタブのScriptの欄に、「Loopback scaler」の項目が増えていれば導入は成功です。
ローカル版の場合
「Extensions」→「Install from URL」の「URL for extension’s git repository」に下記のURLを入力しInstallをクリックしましょう。
https://github.com/Elldreth/loopback_scaler
WebUIを再起動すればインストールされています。
「Loopback scaler」の使い方
まずはアップスケールしたい画像をimg2imgタブにドラッグアンドドロップし、生成に使用したのと同じプロンプトを入力します。
素材の画像サイズは、340×512または512×768がおすすめされていました。あまり大きすぎる画像を素材に使わない方が良いらしいです。
私は768×512を使用しました。
次に設定ですが、Readmeに書いてあるおすすめの設定を使用します。
- Resize mode: Crop and resize
- Sampling method: DDIM
- Sampling steps: 30
- Width,Height:素材と同じサイズ
- CFG Scale: 6~8
- Denoising strength: 0.2~0.4
- Seed: -1
ここまで設定したらScriptのタブにあるLoopback scalerを選択してください。
Maximum Image WidthとMaximum Image Heightに、出力する画像のサイズを入力します。
例えば768×512を2倍にアップスケールしたい場合は、Maximum Image Widthに1,536、Maximum Image Heightに1,024と入力します。
次にAdd Detailに書き込むディテールの量を設定します。おすすめはMediumです。
最後にSharpness、Brightness、Color、Contrastを設定します。これはモデルによって最適解が異なるので、とりあえず全て1にして一度出力してみた後、適宜調整していくのがおすすめです。
参考までに、私はアニメイラストのアップスケールでは下のような設定を使っています。
また、リアル系のイラストのアップスケールでは下のような設定を使っています。
「Loopback scaler」によるアップスケール例
では最後に、私が実際に「Loopback scaler」でアップスケールした例を紹介いたします。
なおモデルに「AbyssHellver3」、LoRAに「animeGalGyaru_v10」を使用しています。
プロンプトは次の通りです。
masterpiece, best quality, highres, 1girl, detailed face, two-tone hair, blonde hair, pink hair, very long hair, blue eyes, medium breasts, detailed clothes, multicolored clothes, t-shirt, leather jacket, denim shorts, choker, (gyaru), portrait, (dark skin:1.2), (arm behind back), looking at viewer, open mouth, tongue, tongue out, earrings, blush, dynamic lighting, street, harajuku, <lora:animeGalGyaru_v10:0.5>
(worst quality, low quality:1.4), (monochrome, greyscale:1.4), zombie, nude, bad-hands-5, EasyNegative, bad anatomy, logo, nipples, nsfw, bikini
【素材画像(アップスケールなし:768×512)】
【Loopback scalerで等倍アップスケール:Add Detail(Medium)】
【Loopback scalerで等倍アップスケール:Add Detail(High)】
【Loopback scalerで1.5倍にアップスケール:Add Detail(Medium)】
【MultiDiffusionで2倍にアップスケール】
もちろんサンプラーによる差もあるでしょうが、この画像に関してはMultiDiffusionの2倍よりも、Loopback scalerの1.5倍の方が私は好きです。
まとめ
以上が「Stable Diffusion WebUI」のimg2imgを使って、生成したAIイラストを簡単に高画質化できる拡張機能「Loopback_scaler」の使い方でした。
非常に簡単に導入できて、なおかつ優秀なアップスケーラーですので、ぜひ皆さんも試してみてくださいね!
では、ここまで読んでいただきありがとうございました。
コメント