こんにちは!悠です!
今回は画像生成AI「Stable Diffusion」を使って、話題のAIコスプレイヤー風の画像を作成する方法についてまとめていきます。
私自身「Stable Diffusion」を使うのはほとんど初めてでしたが、30分もあれば環境ができるほど簡単でしたので、ぜひ皆さんも試してみてくださいね!全く難しくありませんよ!
導入前に知っておいて欲しい専門用語
「Stable Diffusion」でイラストを作成する上で、覚えておきたい専門用語を簡単にまとめておきます。
プロンプト
どのような画像をAIに作成してもらうかを決定する指示テキストの事。例えばcatなら猫のイラストが生成されます。
なお、AIに生成してほしい指示テキストをポジティブプロンプト、逆に生成してほしくない指示テキストをネガティブプロンプトと言います。
例えば低画質の画像を作成してほしくない場合は、ネガティブの方にworst qualityと指定します。
【追記】プロンプトのコツと、プロンプトの例をネット上で探すおすすめの方法についてまとめました!

モデル
AIにイラストの特徴を読み取ってもらうための要素群のこと。例えばアニメ調のイラストを生成してもらいたい場合、モデルにもアニメ調のイラスト専用のものが必要になってきます。
今回はChilloutMixというモデルを紹介してAIコスプレイヤー風の画像を作成していますが、他にもたくさんのモデルが存在しているので、気になった方は調べてみましょう。
LoRA
もととなるモデルに微修正を加える手法の事。モデルデータだけでは実現することが難しい画像をいともたやすく生成してくれる魔法のような技術です。
ChilloutMixのLoRAモデル「KoreanDollLikeness」に関する記事を書いたので、よかったらご覧ください。

【追記1】「JapaneseDollLikeness」に関する記事も書きました!

Stable Diffusion WebUI
「Stable Diffusion」をブラウザ上で操作できるインターフェイスの事。
今回の記事の方法でも使う、下記のようなページのことですね
これを使わない場合、コマンドプロンプトで全ての呪文を打ち込んだり、細かな設定をしないといけなくなります。
VAE
Variational AutoEncoderの略です。ざっくり言うとAIイラストをより綺麗に見せるために、生成した画像の彩度を調整したり、解像度を上げたりするフィルターのようなものです。
今回の方法では使用しませんが、AIイラストを調べていると必ず出てくる言葉なので覚えておきましょう。
なお、Settings → Stable Diffusion → SD VAEから設定できます。
【参考記事】
embeddings
生成されるAIイラストに修正・改良を加える追加機能の事です。
EasyNegativeやUlzzang-6500(後述するプロンプトで使用)などがこれに当たります。
下記の記事で詳しく紹介しています!

ChilloutMixの導入
Stable Diffusion WebUIの起動方法は3種類ある
「Stable Diffusion WebUI」を起動してAIイラストを作成する場合、おすすめのやり方は3つあります。
まず最初に、次の項から説明している「sd-1click-colab」を使った起動方法です。この手法の1番の利点は、既に設定を済ませてあるノートブックを利用して起動するため、初心者の方でも簡単にWebUIを使うことができる点です。
難点は製作者様が用意していないモデルやLoRAを使いたい場合に設定が少し面倒なことですね。
2つ目は、AUTOMATIC1111の「maintained by Akaibu」というノートブックを使ってGoogle Colaboratoryで起動する方法です。初期設定こそ多少面倒ですが、一度土台を作ればどのモデル、LoRA、embeddingsでも簡単に使用できるようになります。
sd-1click-colabに慣れてきたらぜひ使ってみることをおすすめします。(使い方はこちら)
3つ目はローカル版の導入です。クラウドを使わず自分のPCでWebUIを起動するため、一切の制限がない点が最大の魅力ですね。
難点は導入方法が1番難しい点と、使用しているPCのGPUスペックによっては、Colabよりも圧倒的にイラストの生成速度が遅くなる点です。だいたいRTX3060(VRAM12GB)以上が推奨されています。
設定方法はこちらです。
sd-1click-colabの使い方
導入方法に関しては、下記の動画を参考にさせていただきました。
まず、下記URLからGoogle Colaboratoryにアクセスします。これはブラウザ上でPython(Stable Diffusionを実行するのに必要なプログラミング言語)を記述・実行できるサービスです。無料で利用できます。

ログインするとウィンドウが開くので、アップロードのタブを選択します。
次に、下記GitHubから今回AIコスプレイヤーのイラスト作成に使うモデル「ChilloutMix」を導入します。
緑色のCode → Download ZIPと選択し、PCに保存後解凍してください。
解凍したフォルダの中にある「chilloutmix.ipynb」を、Google Colaboratoryのアップロードの中にドラッグアンドドロップします。
下のような画面が表示されるので、実行ボタンをクリックしましょう。
処理が完了するとpublic URLが表示されるので、そこをクリックします。
これでStable Diffusionがブラウザ上で起動します。お疲れ様でした。
なおStable Diffusionを一度終了する場合は、ブラウザの×ボタンを押したり、タブを閉じたりするのではなく、Google Colaboratoryの「ランタイム」→「ランタイムを接続解除して削除」を選択しましょう。
sd-1click-colabでLoRAを使用するOption
Colab版ChilloutMixで複数のLoRAが使えるOptionが追加されていました。
KoreanDollLikenessやJapaneseDollLikeness等はここで設定しなくてもセットアップファイルを変更すれば使えるので(参照記事)、sd-1click-colabに収録されていないLoRAを使いたい場合の設定ですね。
【Optionの使い方】
まずは通常通り実行ボタンを押して、ChilloutMixのpublic urlを表示させます。
urlが表示されたら実行ボタンを再度押して処理を中断し、その下の×ボタンで出力を消去します。
次に、例えばKoreanDollLikenessを使いたい場合なら、「2. Load the Lora & launch the web ui」の中にある下記の部分を、
# LoRA 1 #!curl ... #!mv ...
次のように書き換えます。
# LoRA 1 !curl -Lo /content/stable-diffusion-webui/models/Lora/koreanDollLikeness_v15.safetensors https://huggingface.co/nolanaatama/kdllora/resolve/main/kdllorav15.safetensors #!mv ...
curlの後に、「-Lo /content/stable-diffusion-webui/models/Lora/(使用したいLoraのファイル名)(Loraファイルのダウンロードリンク)」の順で入力しましょう。
なお、civitaiのリンクも問題なく使用できました。
後は実行ボタンを押して、「Stable Diffusion WebUI」を起動するだけです。
※Loraファイルのダウンロードリンクについては、下記のページもおすすめです。

使用したプロンプトの一例
私が試してみたプロンプトを紹介します。
なお例1と例2のプロンプトに関しては、Sampling methodをDPM++ SDE Karras、heightを768に設定しています。
例3以降の画像にはhires.fixという高画質化機能を使っています。別の項で詳しく説明しています。
生成する画像サイズに関しては、基本的に512×512、768×512、512×768のどれかがおすすめです。
【例1】金髪タンクトップ
best quality,ultra high res,(photo realistic:1.4),1 girl,black tank top, hot pants,big breasts, big blue eyes,blonde hair,(ulzzang-6500:1.0),posing,happy,flowers,full body,cosplay,cute,young,nsfw
painting,sketches,(worst quality:2),(low quality:2),(normal quality:2),lowers,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot,(outdoor:1.6)
【補足】
()を付けると()内の単語の重みを増やすことができます。
【例2】金髪ツインテール
best quality,ultra high res,(photo realistic:1.4),1 girls,school uniform,big breasts, big blue eyes,blonde hair,(ulzzang-6500:1.0),posing,happy,sea,sunlight,full body,cosplay,cute,young,twintails,very long hair
painting,sketches,(worst quality:2),(low quality:2),(normal quality:2),lowers,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot,(outdoor:1.6)
【例3】サムネイル画像(ヘッドホン)
- Steps: 20
- Sampler: DPM++ SDE Karras
- CFG scale: 7
- Seed: 1741573146
- Model: chilloutmix_NiPrunedFp32Fix
- Denoising strength: 0.7
- Clip skip: 2
- ENSD: 31337
- Hires upscale: 1.5
- Hires steps: 40
- Hires upscaler: ESRGAN_4x
masterpiece, best quality,ultra high res,(photo realistic:1.4),1 girl,big breasts,big blue eyes,blonde hair,upper body, close up of face shot, (ulzzang-6500-v1.1:1.0),cute, seductive smile, young, posing, lustrous skin, very long hair, cyberpunk, sword, city, headphones,
EasyNegative, (worst quality:2),(low quality:2),(normal quality:2), lowers, normal quality,((monochrome)),((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy
【例4】金髪猫耳美少女
- Steps: 20
- Sampler: DPM++ SDE Karras
- CFG scale: 7
- Seed: 2984084294
- Model: chilloutmix_NiPrunedFp32Fix
- Denoising strength: 0.7
- Clip skip: 2
- ENSD: 31337
- Hires upscale: 1.5
- Hires steps: 40
- Hires upscaler: ESRGAN_4x
masterpiece, best quality, ultra high res, (photo realistic:1.4), ((1girl)), medium breasts, cleavage, upper body, close up of face shot, big blue eyes, cat ears, blonde hair, (ulzzang-6500-v1.1:1.0), maid costume with a lot of frills, black shirt, cute, young, posing, looking at viewer, very long hair, cyberpunk, night city, neckless, cross, <lora:koreanDollLikeness_v15:0.3>
EasyNegative, (worst quality:2), (low quality:2), (normal quality:2), lowers, normal quality, ((monochrome)), ((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy,2 girls
【例5】銀髪ツインテ
- Steps: 20
- Sampler: DPM++ SDE Karras
- CFG scale: 7
- Model: chilloutmix_NiPrunedFp32Fix
- Denoising strength: 0.45
- Clip skip: 2
- ENSD: 31337
- Hires upscale: 1.5
- Hires steps: 30
- Hires upscaler: ESRGAN_4x
masterpiece, best quality, ultra high res,(photo realistic:1.4),((1girl)), huge breasts, breast squeeze, cleavage, upper body, azur lane, elbe \(azur lane\), lustrous skin, twintails, hat, seductive smile, cute, young, looking at viewer, detailed background, intricate background, <lora:koreanDollLikeness_v15:0.3> <lora:elbeAzurLaneLora_elbeE9:0.8>
EasyNegative, (worst quality:2),(low quality:2),(normal quality:2), lowers, normal quality,((monochrome)),((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy,2 girls

こういうプロンプトがおすすめ!等がありましたら、ぜひコメント欄で教えていただけると嬉しいです!
変更しておくべきWebUIの設定
より綺麗なAIイラストを設定するために、変更しておいた方がいい設定をご紹介いたします。
※初期値がいい場合もあります。モデルによって異なるので、配布されているデータの概要欄などによく目を通しましょう。
Sampling method
AIがイラストを作成する手法のようなもの、だと私は解釈しています。
ここを変えると全く同じプロンプトでも違うイラストが生成されます。
よく使われるのは「Euler a(初期設定)」と「DPM++ SDE Karras」ですね。
AIコスプレイヤーやアニメ調のイラスト生成では「DPM++ SDE Karras」が特によく使われている印象です。迷ったらこれにしておきましょう。
Clip Skip
何にかかわる値なのか正直よくわかりませんw
ただ、LoRAモデルを使用する際は、Clip Skipを2(初期値は1)にしておくとよいらしいです。
Setting → Stable Diffusion → Clip Skipから変更できます。
Eta noise seed delta(ENSD)
これも何をしている値なのかわかりません。
ですがモデルによってはこの値のおすすめ設定が紹介されている場合があります。
Setting → Sampler parameters → Eta noise seed deltaから変更可能です。
Extensions
Extensionは拡張機能のことで、Stable Diffusion WebUIに様々な便利機能を導入することができます。
下記の記事で、出力されるAIイラストのポーズを指定できる拡張機能「ControlNet」の使い方についてまとめています。

生成したAIイラストを高画質化する方法
「Stable Diffusion WebUI」の機能「hires.fix」や「Extras」を使って、生成したAIイラストを高画質化する方法について下記の記事でまとめました!

生成したAIイラストを微修正する方法
「Stable Diffusion WebUI」の機能「Variation strength」を使って、生成したAIイラストの微修正を行うことができます。
詳しいやり方に関しては下記の記事でまとめています。

また「Stable Diffusion WebUI」の機能「Inpaint」を使って、生成済みのAIイラストの細部(手や指など)だけを修正する方法についてもまとめました。

sd-1click-colabに存在しないモデルをColabで使いたい!
「sd-1click-colab」に存在しないモデルデータをGoogle Colaboratoryで使う方法については、下記の記事で紹介しています。

また、上記の記事のやり方でLoRAを使用する方法についてもまとめました。

スマホでColab版WebUIを起動する方法
外出先などからスマートフォンを使って、Colaboratory版の「Stable Diffusion WebUI」を起動する方法についてまとめた記事です。

ローカル環境でStable Diffusionを使う方法
ローカル環境で「Stable Diffusion WebUI」を使う方法についてまとめました。GTX1660Ti等のGPUでも問題なくAIイラストを作成することができます。

ChilloutMixモデルデータのダウンロード
ローカル環境に「Stable Diffusion」を構築している場合は、下記のリンク先から「ChilloutMix」のモデルデータをダウンロードできます。
モデルデータの利用規約を調べる方法に関しては、下記の記事でまとめています。

その他のおすすめモデルデータに関する記事




まとめ
以上が「Stable Diffusion」を使って、話題のAIコスプレイヤー風の画像を作成する方法でした。
モデルの選定とプロンプトの組み合わせ次第で、高画質のイラストをいくらでも作成できるのは本当に驚愕としか言いようがないですね。
ぜひ皆さんも試してみてくださいね!
では、ここまで読んでいただきありがとうございました。
コメント
初めまして!
AIコスプレイヤー作成に興味があって、こちらの悠々さんのブログに辿り着きました!
ブログを参考に作成しようと試みましたが、
今chilloutmixってダウンロード出来なくなってる?!って感じになってしまい、断念する事にしました
他で同じように作れるのなら、作成方法を知りたいです♂️
初心者ですので宜しくお願い致します♂️
コメントありがとうございます!
現在でも記事内に貼ってあるGitHubのリンク先(下記)からダウンロード可能ですよ!
https://github.com/nolanaatama/sd-1click-colab
ダウンロードする場所を間違えていませんでしょうか?
それとももしかしてモデルデータ自体をダウンロードされようとしてます?
回答ありがとうございます!
多分ダウンロード先を間違えてたのかもしれません(T . T)
モデルデータとは??
すみません。。本当に初心者すぎて(T . T)
他のモデルも作成出来るって事ですか?
こんにちは!
「Stable Diffusion」でAIにイラストを作成してもらう場合、AIは事前に設定したデータをもとにルールやパターンを学習してイラストを作成します。そのもとになるデータがモデルデータです。
今回の記事で紹介しているモデルデータは「ChilloutMix」というものですね。
これを別のものに変えることで、同じプロンプトを使っても全く別の画像が生成されますよ!
ご丁寧にありがとうございます!
ちょっと試してます^_^
ちなみにこれで作った画像は商用に使えるものなんですか?
いえいえ!お役に立てて何よりです!
モデルの概要欄に記載がありますが、商用利用は不可です。
おはようございます!
昨日試してみたら出来ました!
ご丁寧にありがとうございました!
ちなみにSNSとかに上げるのもダメなんでしょうか?
質問ばかりですみません(*_*)
こんにちは!無事にできたようで何よりです!
SNSに上げる場合はモデルデータを明示する。例えば今回の場合ならChilloutmixで作成したAIイラストと記載しておけば大丈夫だと思います!
モデルデータの概要欄に「当モデルを使用したことを明記せずに生成された画像を公開することや商用利用は認めていません。」とあるので、SNSへの投稿自体はOKなはずです。
何から何までご丁寧にありがとうございました!
まだ初心者ですが、色々試して楽しみたいと思いますm(_ _)m
本当色々とありがとうございました^_^
大変参考になりました!
これから勉強して頑張ります^_^
リアルなAIコスプレイヤーに興味が湧き、このサイトの辿り着きました。
まだしっかりと触ってませんが、一番親切な説明だなと感じました!
AIイラストは著作権や肖像権の違反とやらで騒がれていますが、2次元キャラを3次元化したり、女優やアイドルの画像を悪用してフェイクポルノ化することが悪であって、このブログにあるような存在しないコスプレイヤーを生成するには何の問題もないですよね?
コメントありがとうございます!ありがたいお言葉嬉しいです!
AIイラストと著作権については様々な議論がされてますよね。
この辺の詳しい所については私自身完璧に理解出来ていないんですが、明らかに著作権違反(仰るように実在する女優をモデルデータとし、明らかに本人に実害が出るような画像を生成するような行為)を行い、それをsnsで世間に流通させたり、商用利用とする行為は悪だと思います。
ですが、それらとは別に個人の常識の範囲内で実在しないAIコスプレイヤーを作成する行為に問題はないと思います。
今後どういう法整備が行われ、AIアートにどのような規制が敷かれていくのかは分かりませんが…
度々失礼します!
AIイラストを生成する時には毎回この記事に書いてある手順を踏んでいますでしょうか?
「Stable Diffusion」をブックマークしてて、一度PCをシャットダウンした後にブックマーク先からサイトに入るとログアウトみたいな感じになってしまい、再度Google Colaboratoryにアクセスから入りました。
管理人様も一度PCを閉じたり時間がある程度経過した後は、再度Google Colaboratoryにアクセスから手順を踏んでますか?
こんにちは!コメントありがとうございます!
はい、私も再びStable Diffusion(Web版)を起動するときは、1回1回Google Colaboratoryから同様の手順を踏んでいます。
上の方法はセットアップが非常に簡単なんですが、再起動に時間がかかるのはどうしても仕方ないんでしょうね。
より簡単に立ち上げ直せるいい方法が見つかったら記事にも追記していきます!
そうなんですね…
地味に実行ボタンをクリックしてから待ち時間があるので、解決方法が出てほしいところですね!
はじめまして!
AIコスプレイヤーに興味が湧いていたところ、悠さんのとても丁寧な記事で、ど素人の自分でもAIイラストを抽出することができました。ありがとうございます!
プロンプトですが、hatsune_mikuと入れてみたところ、初音ミク風のフォトリアル画像が作成されてとても驚きました。有効なタグ?は今後増えていくんでしょうかね。楽しみです。
こんにちは!コメントありがとうございます!
モデルデータをいろいろ調べてみたところ、Danbooruのタグをプロンプトとして使えるものも最近はあるようですね。
流石にすべてのタグは無理なんでしょうがw
しかし、プロンプトにhatsune_mikuを使えるのはまだ試していませんでした!私も試させていただきます( *´艸`)
やっとこんないいサイトにたどり着けました。
public URLが表示できるところまでは行けたのですが、クリック後しばらくして504になってしまいます。
インターネット速度は410mpsだったのですが、何が原因でしょうか(-_-;)
こんにちは!コメントありがとうございます!
504エラーが出るのは初回からでしょうか?
というのも、一度記事の内容でstable diffusion(web版)を起動した後、一度PCをシャットダウンした場合は再度同様の手順を繰り返す必要があります。
public URLをブックマークしておいて再度アクセスしようとすると504エラーになってしまうのですが、これでしょうか?
と思ったんですが、2023年2月27日の時点でpublic URLにアクセスしようとすると、私も504エラーが出ました。原因がわかりましたら追記していきます。一時的なものであってくれればいいんですが…
【追記】無事つながるようになりました!やはり一時的なものだったみたいです、ぜひもう一度試してみてください。
AIコスプレイヤー的なものをみて自分で作ってみたく、色々調べてるうちにこちらにたどり着きました
どこよりもわかりやすくて素晴らしいです!
よければローカル環境での簡単な構築方法もいつか記事にしてもらえると嬉しいです
コメントありがとうございます!!
タイミング良すぎてびっくりしたんですが、ちょうど今ローカル環境でStable Diffusion WebUIを使う方法を説明した記事を公開しました。
https://yuuyuublog.org/stablediffusion_local/
ぜひ試してみてください!!
Waifu generator というものを使っていたのですが、それだとアニメ風の画像しか生成できなく
TwitterやYouTubeでリアル風に生成できる方法を探しているうちに、このサイトに辿り着きました。
わかりやすく説明していただき、ありがとうございます。
コメントありがとうございます!お役に立てて何よりです!
civitaiでは様々なフォトリアル系美女を作れるモデルデータが配布されていますので、ぜひいろいろ探してみてください!
その中のいくつかはsd-1click-colabでも利用できます。
ちなみにモデルデータさえ変えれば、この記事と同じ方法でアニメ調のイラストも作成できますよ!
巷で話題のAIイラストとやらを触ってみようと思っていたところこの記事にたどり着きました。大変分かりやすく紹介されていていますね。しかし私が記事の手順で試してみたのですがURLに飛んでもError 1033が出てしまいます。原因などわかりますでしょうか。
コメントありがとうございます!
最近sd-1click-colabで生成されるpublic urlが変わったんですよね。おそらくその影響のような気がします。
私の場合は何の問題もなく起動できていますが、Error1033はおそらくCloudflareのエラー?っぽいですね。
ただ解決方法に関してはすみません、調べてもよくわからないです。
他に表示されているエラーメッセージなどはありますでしょうか?
【参考記事】
https://support.cloudflare.com/hc/ja/articles/360029779472-Cloudflare-1XXX-%E3%82%A8%E3%83%A9%E3%83%BC%E3%81%AE%E3%83%88%E3%83%A9%E3%83%96%E3%83%AB%E3%82%B7%E3%83%A5%E3%83%BC%E3%83%86%E3%82%A3%E3%83%B3%E3%82%B0#h_W81O7hTPalZtYqNYkIHgH
当サイトを参考にColab環境で始めました。chilloutomixから起動確認後、KoreanDollLikenessを導入し起動しました。一度stablediffusionを閉じた後、2回目以降の起動はどこからやるのが良いのでしょうか?
Colabを開いてchilloutmixを実行するのが正解でしょうか
コメントありがとうございます!
仰る通りです!2回目の起動は1回目と同じく、colabから使いたいモデルデータのセットアップファイルを実行すればokです。
Sd-1click-colabでは、chilloutmixとKoreanDollLikenessのセットアップファイルは別れているので、もう一度KoreanDollLikenessを起動したい場合はそのファイルで実行する感じですね。
毎回セットアップに時間がかかるのだけがちょっと残念ですが…
なお、public urlをブックマークしておいても、毎回同じ手順を踏まないとstable diffusionにアクセスできないので注意してください!
ありがとうございます。
chilloutmix実行→KoreanDollLikeness実行(ブログ記載の1と3)→URLから起動
ということでしょうか
無料版なので強制終了もあって面倒ですが頑張ってみます
Sd-1click-colabのipynbファイルには、chilloutmix.ipynbとKoreanDollLikeness_lora.ipynbがあるんですが、Koreandolllikenessを起動する場合は後者のセットアップファイルを実行するだけでokということです。
下記の記事のような感じです!
https://yuuyuublog.org/koreandolllikeness/
無料版だとすぐ制限が来て面倒ですよね~!
chilloutmix.ipynbをアップロードのとこにやってもエラーが起きてしまいます。どうしたらいいですか?
コメントありがとうございます!
どのようなエラーが起きていますでしょうか?表示されるエラーメッセージ等を教えていただけると幸いです!
とても参考になるブログありがとうございますm(_ _)m
最近よくstable diffusionを触っているのですが、どうも他の人の結果と比べると精細さが悪いような気がしています。
モデル、プロンプトなどは揃えているのですが、
グラボの性能で結果が変わることはあるのでしょうか?
それともグラボの違いは作成スピードのみでしょうか?
コメントありがとうございます!
基本的にグラボの性能が関係するのはイラストの生成速度のみのはずです。
出力する画像の精細さには、VAEの使用やHires.fixによる高画質化が大きく影響します。
https://yuuyuublog.org/hiresfix/
特にHires.fixは画質がかなり向上するので、まだの場合はぜひ試してみてください!
また、Twitter等にAIイラストを投稿している方などは、もしかすると他の外部ソフトで修正を加えているのかもしれません(詳しくはよくわからないです)。
でも実際RTX4090などのハイエンドGPUを触ったことがないので、100%確実ではないです。
もしかすると僅かな差はあるのかもしれませんね~。
ご回答ありがとうございます!
Hires.fix触っていませんでしたがブログの記事を見るとかなり変わりますね!
試してみようと思います。
またブログ楽しみにしています
はじめまして。
おすすめのモデルデータはありますか?また、モデルデータの絵柄?的なのを確認できるサイトなどはありますでしょうか?
こんにちは!コメントありがとうございます!
ChilloutMix以外でおすすめのモデルデータといえば、NeverEndingDreamやMeinaMix、FaceBombMix、BasilMIx、RealdosMIxあたりでしょうか。他にもたくさんあります。
Civitaiでイラストを確認することができますよ!
https://civitai.com/
YouTubeのStable Diffusion紹介動画の概要欄からここに辿り着きました
おかげ様で無事設定でき感謝です
丁寧な解説ありがとうございました(強制終了で我にかえったら6時間すぎてた!
コメントありがとうございます!お役に立てて何よりです!
私もイラスト生成していたら時間を忘れてしまいますw
凄く有益で分かりやすかったです ありがとうございました。
githubからダウンロードしたzipファイルをアップロードしようとしてもUnable to read file.とエラーが出てしまいます。現在zipファイル側に何か変更がなされたりはしてないのでしょうか。原因がお分かりになりませんでしょうか。お手数おかけします。
コメントありがとうございます!
もしかしてですが、ZIPファイルをそのままアップロードしようとされていませんか?
解凍して、その中にある.ipynbをアップロードされていますでしょうか?
私も今試してみたんですが、問題なく読み込むことができました。
【追伸】またGoogle Driveの中にあまりにも大量のフォルダを作成していたりデータを保存していると、アップロードしたファイルをColabが読み取れずにエラーを出すことがあるようです。この場合はドライブ内を整理する必要があるようですね。
お恥ずかしい限りですが、その通りでした…笑
問題なくできました、ありがとうございました。
おお!よかったです!
無事解決して何よりです!
お世話になっております
悠さんの記事を参考に話題のAI画像作成に初チャレンジしました!
新しい時代への技術革新に感動ですね
商用向けのモデル、自分オリジナルのモデル作成など色々とやりたい事が増えてしまいますね
今後も参考にさせてください
ありがとうございました
コメントありがとうございます!
Stable Diffusionは本当に革命ですよね。これほどのクオリティのものを僅か数クリックで作成できるなんてw
今後も面白そうなモデルや手法を見つけたら記事にまとめていきますので、ぜひよろしくお願いいたします!
とても分かりやすい記事であっさりとStable Diffusionを使うことができました。
画像生成おもしろいですね。
ただ、生成した画像はどこに保存されるのでしょうか?
何枚か生成した後に見返そうと思ったら見つかりませんでした。
お教え頂けると嬉しいです。
コメントありがとうございます!
生成した画像はGoogle Colaboratoryの左側にあるフォルダ→stable diffusion webui→outputsの中に保存されます。
下記の画像を参考にしてください。
ただランタイムを削除する(一度colaboratoryの画面を閉じてしまう)と消えてしまうため、いい感じの画像が出た場合は右クリック→名前を付けて保存しておくことをおすすめします。
はじめまして。
手順通りに実行ボタンを押して、public URLを押したのですが、画像が表示されません。
何かわかりますか?
コメントありがとうございます!
publicURLを押しても画像が表示されないとは、「Stable Diffusion WebUI」が起動しないということでしょうか?
どのようなエラーメッセージが出ているか教えていただいてもよろしいでしょうか?
504エラーの場合は半日ほど時間をおいて再度試すと、問題なくWebUIを起動できる場合もあります。
エラーメッセージがどれか分からないですが、
public URLが出ても、実行ボタンの■が一生回ってる感じです。
public URLをクリックすると、Stable Diffusion WebUIがブラウザの新しいタブで開くはずなんですが、タブ自体開かない感じでしょうか?
Stable Diffusion WebUIのタブは開きますが、右側に表示されるはずの画像が表示されないです。
「Stable Diffusion WebUI」は起動できており、プロンプトを入力してGenerateボタンを押すところまでは行ったけれど、完了度が100%になっても右側のAIイラストが表示される欄にイラストが表示されないということでしょうか?
これ私もよく経験する現象なんですよね~。画像は表示されなくてもcolabのoutputフォルダ(添付)には画像が生成されてるので、右クリックしてダウンロードすることができます。
hires.fixを使ったときによく起こりがちですね。
こうなってしまったら、一度webUIのタブを更新してリフレッシュしたりするとまた表示されるようになります。
※リフレッシュすると入力していたプロンプトが消えてしまうので注意してください。
colabにおけるLoraの導入について質問させてください。
悠さんのように『curlの後に、「-Lo /content/stable-diffusion-webui/models/Lora/(使用したいLoraのファイル名)」、「Loraファイルのダウンロードリンク」の順で入力』しコードを実行、エラーもなし。そのままStable Diffusionを開いてみるのですが、〈Show extra networks〉をのぞいてみても、Loraの欄は「Nothing here. Add some content to the following directories:」となってしまい、Loraに関して何も反映されません。
恐れ入りますが、この問題を解決できそうな方法に何か思い当たるものありますでしょうか?ちなみにcivitaiのファイルとリンクを使おうとしています。
コメントありがとうございます!
考えられる原因を3つほど挙げてみます。
(1)Sd-1click-colabは定期的にアップデートを行っているため、loraの導入法が変わった(これはあとで私も検証してみます)
(2)使おうとしていたloraが製作者様によってcivitaiから削除された。
(3)数日前に行われたwebuiの大型アップデートによる問題。最新版のwebuiはどうやら様々なバグがあるそうなので、それによってloraが使用不可能になってしまっている。
この場合はautomatic1111のmaintaind by akaibuという別のノートブックを使ってwebuiをダウングレードする方法がオススメです
https://yuuyuublog.org/facebombmix/
https://yuuyuublog.org/automatic1111downgrade/