こんにちは!悠です!
今回は画像生成AI「Stable Diffusion」を使って、話題のAIコスプレイヤー風の画像を作成する方法についてまとめていきます。
私自身「Stable Diffusion」を使うのはほとんど初めてでしたが、30分もあれば環境ができるほど簡単でしたので、ぜひ皆さんも試してみてくださいね!全く難しくありませんよ!
導入前に知っておいて欲しい専門用語
「Stable Diffusion」でイラストを作成する上で、覚えておきたい専門用語を簡単にまとめておきます。
プロンプト
どのような画像をAIに作成してもらうかを決定する指示テキストの事。例えばcatなら猫のイラストが生成されます。
なお、AIに生成してほしい指示テキストをポジティブプロンプト、逆に生成してほしくない指示テキストをネガティブプロンプトと言います。
例えば低画質の画像を作成してほしくない場合は、ネガティブの方にworst qualityと指定します。
【追記】プロンプトのコツと、プロンプトの例をネット上で探すおすすめの方法についてまとめました!

モデルデータ
特定の画像群を素材にして学習させたデータの事。これを使うことで、AIが素材イラストの特徴を読み取って新たにイラストを生成してくれます。
例えばアニメ調のイラストを生成してもらいたい場合、モデルにもアニメ調のイラスト専用のものが必要になってきます。
今回はChilloutMixというモデルを紹介してAIコスプレイヤー風の画像を作成していますが、他にもたくさんのモデルが存在しているので、気になった方は調べてみましょう。
ちなみにモデルデータには.ckptもしくは.safetensorsという専用の拡張子が使用されています。基本的に.safetensorsの方が安定しており、読み込み速度も速いといわれています。
※モデルデータのことをCheckpointと表現することもあります。ついでに覚えておきましょう。
【追記】美少女のAIイラスト生成におすすめのモデルデータをまとめてみました!

LoRA
もととなるモデルに追加で学習をさせて新たな特徴付けをしていく手法の事。
モデルデータだけでは実現することが難しい特定の漫画やアニメに登場するキャラの画像をいともたやすく生成してくれる魔法のような技術です。
<lora:lora_name:1>というプロンプト(表記)を使って、イラストに反映させます。
数字の部分は、どの程度LoRAの成分が生成されるAIイラストに反映されるかを表す比重です。数値が1に近いほど反映量が大きくなります。
ChilloutMixのLoRAモデル「KoreanDollLikeness」に関する記事を書いたので、よかったらご覧ください。LoRAの導入方法や使い方についてもこちらで詳しく紹介しています。

【追記1】「JapaneseDollLikeness」に関する記事も書きました!

Stable Diffusion WebUI
「Stable Diffusion」をブラウザ上で操作できるインターフェイスの事。
今回の記事の方法でも使う、下記のようなページのことですね
これを使わない場合、コマンドプロンプトで全ての呪文を打ち込んだり、細かな設定をしないといけなくなります。
ちなみにWebUIを日本語化する手法もありますが、翻訳が完璧ではなく、「Stable Diffusion」の情報は基本的に英語で書かれていることが多いので、個人的には非推奨です。
英語版で各項目の使い方を覚えた方が応用が効くと思います。
VAE
Variational AutoEncoderの略です。ざっくり言うとAIイラストをより綺麗に見せるために、生成した画像の彩度を調整したり、解像度を上げたりするフィルターのようなものです。
今回の方法では使用しませんが、AIイラストを調べていると必ず出てくる言葉なので覚えておきましょう。
なお、Settings → Stable Diffusion → SD VAEから設定できます。
【参考記事】

embeddings
生成されるAIイラストに修正・改良を加える追加機能の事です。
EasyNegativeやUlzzang-6500(後述するプロンプトで使用)などがこれに当たります。
下記の記事で詳しく紹介しています!

ChilloutMixの導入
Stable Diffusion WebUIの起動方法は3種類ある
「Stable Diffusion WebUI」を起動してAIイラストを作成する場合、おすすめのやり方は3つあります。
まず最初に、次の項から説明している「sd-1click-colab」を使った起動方法です。この手法の1番の利点は、既に設定を済ませてあるノートブックを利用して起動するため、初心者の方でも簡単にWebUIを使うことができる点です。
難点は製作者様が用意していないモデルやLoRAを使いたい場合に設定が少し面倒なことですね。
【追記】「Sd-1click-colab」のように1クリックするだけでWebUIを起動できるcamenduruのノートブックの使い方をこちらにまとめました。
2つ目は、AUTOMATIC1111の「maintained by Akaibu」というノートブックを使ってGoogle Colaboratoryで起動する方法です。初期設定こそ多少面倒ですが、一度土台を作ればどのモデル、LoRA、embeddingsでも簡単に使用できるようになります。
sd-1click-colabに慣れてきたらぜひ使ってみることをおすすめします。(使い方はこちら)
3つ目はローカル版の導入です。クラウドを使わず自分のPCでWebUIを起動するため、一切の制限がない点が最大の魅力ですね。
難点は導入方法が1番難しい点と、使用しているPCのGPUスペックによっては、Colabよりも圧倒的にイラストの生成速度が遅くなる点です。だいたいRTX3060(VRAM12GB)以上が推奨されています。
設定方法はこちらです。
sd-1click-colabの使い方
導入方法に関しては、下記の動画を参考にさせていただきました。
まず、下記URLからGoogle Colaboratoryにアクセスします。これはブラウザ上でPython(Stable Diffusionを実行するのに必要なプログラミング言語)を記述・実行できるサービスです。無料で利用できます。

ログインするとウィンドウが開くので、アップロードのタブを選択します。
次に、下記GitHubから今回AIコスプレイヤーのイラスト作成に使うモデル「ChilloutMix」を導入します。
緑色のCode → Download ZIPと選択し、PCに保存後解凍してください。
解凍したフォルダの中にある「chilloutmix.ipynb」を、Google Colaboratoryのアップロードの中にドラッグアンドドロップします。
下のような画面が表示されるので、実行ボタンをクリックしましょう。
処理が完了するとpublic URLが表示されるので、そこをクリックします。
これでStable Diffusionがブラウザ上で起動します。お疲れ様でした。
なおStable Diffusionを一度終了する場合は、ブラウザの×ボタンを押したり、タブを閉じたりするのではなく、Google Colaboratoryの「ランタイム」→「ランタイムを接続解除して削除」を選択しましょう。
sd-1click-colabでLoRAを使用するOption
Colab版ChilloutMixで複数のLoRAが使えるOptionが追加されていました。
KoreanDollLikenessやJapaneseDollLikeness等はここで設定しなくてもセットアップファイルを変更すれば使えるので(参照記事)、sd-1click-colabに収録されていないLoRAを使いたい場合の設定ですね。
他には、複数のLoRAを混ぜたい時(KoreanDollLikenessとJapaneseDollLikenessを同時に使いたい時)などにも、この方法が利用できます。
Optionの使い方
まずは通常通り実行ボタンを押して、ChilloutMixのpublic urlを表示させます。
urlが表示されたら実行ボタンを再度押して処理を中断し、その下の×ボタンで出力を消去します。
次に、例えばKoreanDollLikenessを使いたい場合なら、「2. Load the Lora & launch the web ui」の中にある下記の部分を、
# LoRA 1 #!curl ... #!mv ...
次のように書き換えます。
# LoRA 1 !curl -Lo /content/stable-diffusion-webui/models/Lora/koreanDollLikeness_v15.safetensors https://huggingface.co/nolanaatama/kdllora/resolve/main/kdllorav15.safetensors #!mv ...
curlの後に、「-Lo /content/stable-diffusion-webui/models/Lora/(使用したいLoraのファイル名)(Loraファイルのダウンロードリンク)」の順で入力しましょう。
なお、civitaiのリンクを使いたい場合は、LoRAのダウンロードリンクにCivitaiの各ページのURLではなく、青いダウンロードボタンのリンクを張り付けましょう。
# LoRA 1 !curl -Lo /content/stable-diffusion-webui/models/Lora/yaeMikoRealistic_yaemikoMixed.safetensors ~civitai~/api/download/models/〇〇 #!mv ...
※上のコマンドではCivitaiのurlを省略して掲載しています。
後は実行ボタンを押して、「Stable Diffusion WebUI」を起動するだけです。
2023年4月26日追記
LoRAを適用する場合は、
の部分を、
に変更しなければいけなさそうです。
使用したプロンプトの一例
私が試してみたプロンプトを紹介します。
なお例1と例2のプロンプトに関しては、Sampling methodをDPM++ SDE Karras、heightを768に設定しています。
例3以降の画像にはhires.fixという高画質化機能を使っています。別の項で詳しく説明しています。
生成する画像サイズに関しては、基本的に512×512、768×512、512×768のどれかがおすすめです。
【例1】黒髪タンクトップ
masterpiece, best quality, highres, photoreaslistic, detailed face, 1girl, upper body, medium breasts, very long hair, black hair, cute, soft smile, outdoors, black tank top, hot pants
painting, sketches, (worst quality:1.4),(low quality:1.4), lowers, (monochrome, greyscale:1.4), skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, EasyNegative
【補足】
()を付けると()内の単語の重みを増やすことができます。
【例2】黒髪セーター
masterpiece, best quality, highres, photoreaslistic, detailed face, 1girl, upper body, medium breasts, short hair, black hair, cute, soft smile, outdoors, bare shoulders, sweater, miniskirt
painting, sketches, (worst quality:1.4),(low quality:1.4), lowers, (monochrome, greyscale:1.4), skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, EasyNegative
【例3】サムネイル画像(ヘッドホン)
- Steps: 20
- Sampler: DPM++ SDE Karras
- CFG scale: 7
- Seed: 1741573146
- Model: chilloutmix_NiPrunedFp32Fix
- Denoising strength: 0.7
- Clip skip: 2
- ENSD: 31337
- Hires upscale: 1.5
- Hires steps: 40
- Hires upscaler: ESRGAN_4x
masterpiece, best quality,ultra high res,(photo realistic:1.4),1 girl,big breasts,big blue eyes,blonde hair,upper body, close up of face shot, (ulzzang-6500-v1.1:1.0),cute, seductive smile, young, posing, lustrous skin, very long hair, cyberpunk, sword, city, headphones,
EasyNegative, (worst quality:2),(low quality:2),(normal quality:2), lowers, normal quality,((monochrome)),((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy
【例4】金髪猫耳美少女
- Steps: 20
- Sampler: DPM++ SDE Karras
- CFG scale: 7
- Seed: 2984084294
- Model: chilloutmix_NiPrunedFp32Fix
- Denoising strength: 0.7
- Clip skip: 2
- ENSD: 31337
- Hires upscale: 1.5
- Hires steps: 40
- Hires upscaler: ESRGAN_4x
masterpiece, best quality, ultra high res, (photo realistic:1.4), ((1girl)), medium breasts, cleavage, upper body, close up of face shot, big blue eyes, cat ears, blonde hair, (ulzzang-6500-v1.1:1.0), maid costume with a lot of frills, black shirt, cute, young, posing, looking at viewer, very long hair, cyberpunk, night city, neckless, cross, <lora:koreanDollLikeness_v15:0.3>
EasyNegative, (worst quality:2), (low quality:2), (normal quality:2), lowers, normal quality, ((monochrome)), ((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy,2 girls
【例5】金髪ツインテ
- Steps: 20
- Sampler: DPM++ 2M Karras
- CFG scale: 7
- Model: chilloutmix_NiPrunedFp16Fix
- Clip skip: 2
- ENSD: 31337
masterpiece, best quality, highres, photoreaslistic, detailed face, 1girl, upper body, medium breasts, very long hair, twintails, (white hair:1.2), cute, soft smile, outdoors, white shirt, <lyco:koreanDollLikeness_v15:0.2>
painting, sketches, (worst quality:1.4),(low quality:1.4), lowers, (monochrome, greyscale:1.4), skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, EasyNegative

こういうプロンプトがおすすめ!等がありましたら、ぜひコメント欄で教えていただけると嬉しいです!
変更しておくべきWebUIの設定
より高品質なAIイラストを生成するために、変更しておいた方がいい設定をご紹介いたします。
※初期値がいい場合もあります。モデルによって異なるので、配布されているデータの概要欄などによく目を通しましょう。
Batch count
Batch countは生成するAIイラストの枚数を設定する項目です。
例えばこれを5に設定していると、入力したプロンプトを使ってAIイラストが5枚生成されます。
Batch size
Batch sizeは、同時に画像を生成する枚数のことです。
例えば3に設定していると、3枚のAIイラストを並列処理で生成してくれるため、生成速度が向上します。
その代わりにVRAM消費量が増えてしまうので、GPUのスペックが低い場合は1推奨です。
Batch countとBatch sizeを掛け合わせた数が、最終的に生成されるAIイラストの枚数になります。
CFG Scale
入力したプロンプトが、どの程度生成されるAIイラストに影響を与えるのか、その影響力を表す数値です。
数値を大きくすればするほど、プロンプトを無視した出力が減りますが、画像の色彩が変になったり構図が崩壊したりするようになります。
下げるほど画像がぼやけていきますが、生成されるAIイラストの自由度が向上するようです。
特に指定がない限り、デフォルトの7を使うのが無難です。
【参考記事】

Seed
Seed値とは簡単に言えば、生成したAIイラストの通し番号のようなものです。
同じプロンプトを使っても生成されるAIイラストは毎回異なりますが、Seedを固定することで前回と全く同じ画像を生成することができます(もちろん同プロンプトの場合)。
Seedの右にあるさいころボタンを押すと-1(seedがランダムになる)が自動入力され、さいころ右の矢印3つのマークをクリックすることで生成した画像のSeedを表示することができます。
Sampling method
AIがイラストを作成する手法のようなもの、だと私は解釈しています。
ここを変えると全く同じプロンプトでも違うイラストが生成されます。
よく使われるのは「Euler a(初期設定)」、「DPM++ 2M Karras」、「DPM++ SDE Karras」ですね。
AIコスプレイヤーやアニメ調のイラスト生成では「DPM++ SDE Karras」が特によく使われている印象です。迷ったらこれにしておきましょう。
なお、私は最近「DPM++ 2M Karras」が好みです。
「Stable Diffusion WebUI」の「X/Y/Z plot」という機能を使って、モデルに最適なSampling methodを比較・検討する方法について下の記事でまとめました。

【Sampling methodに関する参考記事】
Clip Skip
CLIPとは、入力したプロンプト(テキスト)を画像に反映させるテキストエンコーダーのようなものです。
CLIPの処理は複数の層に分かれており、通常Stable Diffusionでは最後の層まで処理を行ってからイラストを生成しますが(clip skip = 1)、それを最後から2番目の層までで処理をやめる(最後の層の処理をスキップする)のがclip skip = 2らしいです。(参考記事)
Novel AIが使っていたclip skip = 2が広まって、今現在に至るようですね。
この記事で検証していましたが、clip skipを上げ過ぎると入力したプロンプトとかけ離れた画像を生成するようになるので注意が必要です。
Setting → Stable Diffusion → Clip Skipから変更できます。
Eta noise seed delta(ENSD)
多くの場合ENSDを31337に設定することが推奨されています。これはNovelAIが使っていた設定に由来しているそうです。(参考記事)
これまでENSD=31337で数百枚以上イラストを生成してきましたが、どんなモデルでも特に不具合はなかったので、とりあえず31337にしておけばいいと思います。
Setting → Sampler parameters → Eta noise seed deltaから変更可能です。
なお、どれだけ探してもENSDが何に関係しているパラメーターなのかを説明している記事が見つかりません。
もしご存知でしたら、コメント欄で教えていただけると嬉しいです!
Extensions
Extensionは拡張機能のことで、「Stable Diffusion WebUI」に様々な便利機能を導入することができます。
WebUIにぜひとも導入しておきたい、おすすめの拡張機能に関して下の記事でまとめています。

生成したAIイラストを高画質化する方法
AIイラストを生成した後は、必ず下記で紹介している方法を使って高画質化を行いましょう。特にアニメイラスト系のモデルでは必須です。
その超わかりやすい例をご紹介いたします。なお「AbyssOrangeMix3」を使用してイラストを生成しています。
【高画質化前(768×512)】
【高画質化後(1536×1024)】
元画像は顔がつぶれて見れたものではありませんよね。どれだけ高画質化が重要なのか伝わったのではないでしょうか。
なお、指に関してはある程度仕方のない部分もあります。そこは次の項で紹介している修正方法で頑張ってみてください。
高画質化手法1:Hires.fix
「Stable Diffusion WebUI」の機能「hires.fix」や「Extras」を使って、生成したAIイラストを高画質化する方法について下記の記事でまとめました!

高画質化手法2:MultiDiffusion
拡張機能「multidiffusion-upscaler-for-automatic1111」を使って、hires.fixのように生成したAIイラストを高画質化する方法についてもまとめました。

高画質化手法3:Ultimate SD Upscaler
拡張機能「Ultimate SD Upscaler」を使って、生成したAIイラストを高画質化する方法についてもまとめています。

高画質化手法4:Loopback scaler
拡張機能「Loopback scaler」を使って、生成したAIイラストを高画質化する方法についてもまとめています。
素材画像をもとにして、破綻することなく書き込みの量を増やしてくれる(ディテールを細かくしてくれる)素晴らしい拡張機能です。

生成したAIイラストを微修正する方法
「Stable Diffusion WebUI」の機能「Variation strength」を使って、生成したAIイラストの微修正を行うことができます。
詳しいやり方に関しては下記の記事でまとめています。

また「Stable Diffusion WebUI」の機能「Inpaint」を使って、生成済みのAIイラストの細部(手や指など)だけを修正する方法についてもまとめました。

sd-1click-colabに存在しないモデルをColabで使いたい!
「sd-1click-colab」に存在しないモデルデータをGoogle Colaboratoryで使う方法については、下記の記事で紹介しています。

また、上記の記事のやり方でLoRAを使用する方法についてもまとめました。

スマホでColab版WebUIを起動する方法
外出先などからスマートフォンを使って、Colaboratory版の「Stable Diffusion WebUI」を起動する方法についてまとめた記事です。

ローカル環境でStable Diffusionを使う方法
ローカル環境で「Stable Diffusion WebUI」を使う方法についてまとめました。GTX1660Ti等のGPUでも問題なくAIイラストを作成することができます。

ChilloutMixモデルデータのダウンロード
ローカル環境に「Stable Diffusion」を構築している場合は、Civitaiから「ChilloutMix」のモデルデータをダウンロードできます。
モデルデータの利用規約を調べる方法に関しては、下記の記事でまとめています。

その他のおすすめモデルデータに関する記事

まとめ
以上が「Stable Diffusion」を使って、話題のAIコスプレイヤー風の画像を作成する方法でした。
モデルの選定とプロンプトの組み合わせ次第で、高画質のイラストをいくらでも作成できるのは本当に驚愕としか言いようがないですね。
ぜひ皆さんも試してみてくださいね!
では、ここまで読んでいただきありがとうございました。
コメント
初めまして!
AIコスプレイヤー作成に興味があって、こちらの悠々さんのブログに辿り着きました!
ブログを参考に作成しようと試みましたが、
今chilloutmixってダウンロード出来なくなってる?!って感じになってしまい、断念する事にしました
他で同じように作れるのなら、作成方法を知りたいです♂️
初心者ですので宜しくお願い致します♂️
コメントありがとうございます!
現在でも記事内に貼ってあるGitHubのリンク先(下記)からダウンロード可能ですよ!
https://github.com/nolanaatama/sd-1click-colab
ダウンロードする場所を間違えていませんでしょうか?
それとももしかしてモデルデータ自体をダウンロードされようとしてます?
初コメント失礼します。
CIVITAIのLoraの導入が出来ずに困っています。コメントなども見て、真似できそうなことはしたのですが、どうしても反映されないです。
最後に入力した内容がこちらになります。
# LoRA 1
!curl -Lo /content/sd-webui/models/Lora/feetpose-000006.safetensors …download/models/19130
#!mv …
なにが原因かわかりますでしょうか?
ご回答お待ちしております。
回答ありがとうございます!
多分ダウンロード先を間違えてたのかもしれません(T . T)
モデルデータとは??
すみません。。本当に初心者すぎて(T . T)
他のモデルも作成出来るって事ですか?
こんにちは!
「Stable Diffusion」でAIにイラストを作成してもらう場合、AIは事前に設定したデータをもとにルールやパターンを学習してイラストを作成します。そのもとになるデータがモデルデータです。
今回の記事で紹介しているモデルデータは「ChilloutMix」というものですね。
これを別のものに変えることで、同じプロンプトを使っても全く別の画像が生成されますよ!
ご丁寧にありがとうございます!
ちょっと試してます^_^
ちなみにこれで作った画像は商用に使えるものなんですか?
いえいえ!お役に立てて何よりです!
モデルの概要欄に記載がありますが、商用利用は不可です。
おはようございます!
昨日試してみたら出来ました!
ご丁寧にありがとうございました!
ちなみにSNSとかに上げるのもダメなんでしょうか?
質問ばかりですみません(*_*)
こんにちは!無事にできたようで何よりです!
SNSに上げる場合はモデルデータを明示する。例えば今回の場合ならChilloutmixで作成したAIイラストと記載しておけば大丈夫だと思います!
モデルデータの概要欄に「当モデルを使用したことを明記せずに生成された画像を公開することや商用利用は認めていません。」とあるので、SNSへの投稿自体はOKなはずです。
何から何までご丁寧にありがとうございました!
まだ初心者ですが、色々試して楽しみたいと思いますm(_ _)m
本当色々とありがとうございました^_^
大変参考になりました!
これから勉強して頑張ります^_^
リアルなAIコスプレイヤーに興味が湧き、このサイトの辿り着きました。
まだしっかりと触ってませんが、一番親切な説明だなと感じました!
AIイラストは著作権や肖像権の違反とやらで騒がれていますが、2次元キャラを3次元化したり、女優やアイドルの画像を悪用してフェイクポルノ化することが悪であって、このブログにあるような存在しないコスプレイヤーを生成するには何の問題もないですよね?
コメントありがとうございます!ありがたいお言葉嬉しいです!
AIイラストと著作権については様々な議論がされてますよね。
この辺の詳しい所については私自身完璧に理解出来ていないんですが、明らかに著作権違反(仰るように実在する女優をモデルデータとし、明らかに本人に実害が出るような画像を生成するような行為)を行い、それをsnsで世間に流通させたり、商用利用とする行為は悪だと思います。
ですが、それらとは別に個人の常識の範囲内で実在しないAIコスプレイヤーを作成する行為に問題はないと思います。
今後どういう法整備が行われ、AIアートにどのような規制が敷かれていくのかは分かりませんが…
度々失礼します!
AIイラストを生成する時には毎回この記事に書いてある手順を踏んでいますでしょうか?
「Stable Diffusion」をブックマークしてて、一度PCをシャットダウンした後にブックマーク先からサイトに入るとログアウトみたいな感じになってしまい、再度Google Colaboratoryにアクセスから入りました。
管理人様も一度PCを閉じたり時間がある程度経過した後は、再度Google Colaboratoryにアクセスから手順を踏んでますか?
こんにちは!コメントありがとうございます!
はい、私も再びStable Diffusion(Web版)を起動するときは、1回1回Google Colaboratoryから同様の手順を踏んでいます。
上の方法はセットアップが非常に簡単なんですが、再起動に時間がかかるのはどうしても仕方ないんでしょうね。
より簡単に立ち上げ直せるいい方法が見つかったら記事にも追記していきます!
そうなんですね…
地味に実行ボタンをクリックしてから待ち時間があるので、解決方法が出てほしいところですね!
はじめまして!
AIコスプレイヤーに興味が湧いていたところ、悠さんのとても丁寧な記事で、ど素人の自分でもAIイラストを抽出することができました。ありがとうございます!
プロンプトですが、hatsune_mikuと入れてみたところ、初音ミク風のフォトリアル画像が作成されてとても驚きました。有効なタグ?は今後増えていくんでしょうかね。楽しみです。
こんにちは!コメントありがとうございます!
モデルデータをいろいろ調べてみたところ、Danbooruのタグをプロンプトとして使えるものも最近はあるようですね。
流石にすべてのタグは無理なんでしょうがw
しかし、プロンプトにhatsune_mikuを使えるのはまだ試していませんでした!私も試させていただきます( *´艸`)
やっとこんないいサイトにたどり着けました。
public URLが表示できるところまでは行けたのですが、クリック後しばらくして504になってしまいます。
インターネット速度は410mpsだったのですが、何が原因でしょうか(-_-;)
こんにちは!コメントありがとうございます!
504エラーが出るのは初回からでしょうか?
というのも、一度記事の内容でstable diffusion(web版)を起動した後、一度PCをシャットダウンした場合は再度同様の手順を繰り返す必要があります。
public URLをブックマークしておいて再度アクセスしようとすると504エラーになってしまうのですが、これでしょうか?
と思ったんですが、2023年2月27日の時点でpublic URLにアクセスしようとすると、私も504エラーが出ました。原因がわかりましたら追記していきます。一時的なものであってくれればいいんですが…
【追記】無事つながるようになりました!やはり一時的なものだったみたいです、ぜひもう一度試してみてください。
AIコスプレイヤー的なものをみて自分で作ってみたく、色々調べてるうちにこちらにたどり着きました
どこよりもわかりやすくて素晴らしいです!
よければローカル環境での簡単な構築方法もいつか記事にしてもらえると嬉しいです
コメントありがとうございます!!
タイミング良すぎてびっくりしたんですが、ちょうど今ローカル環境でStable Diffusion WebUIを使う方法を説明した記事を公開しました。
https://yuuyuublog.org/stablediffusion_local/
ぜひ試してみてください!!
Waifu generator というものを使っていたのですが、それだとアニメ風の画像しか生成できなく
TwitterやYouTubeでリアル風に生成できる方法を探しているうちに、このサイトに辿り着きました。
わかりやすく説明していただき、ありがとうございます。
コメントありがとうございます!お役に立てて何よりです!
civitaiでは様々なフォトリアル系美女を作れるモデルデータが配布されていますので、ぜひいろいろ探してみてください!
その中のいくつかはsd-1click-colabでも利用できます。
ちなみにモデルデータさえ変えれば、この記事と同じ方法でアニメ調のイラストも作成できますよ!
巷で話題のAIイラストとやらを触ってみようと思っていたところこの記事にたどり着きました。大変分かりやすく紹介されていていますね。しかし私が記事の手順で試してみたのですがURLに飛んでもError 1033が出てしまいます。原因などわかりますでしょうか。
コメントありがとうございます!
最近sd-1click-colabで生成されるpublic urlが変わったんですよね。おそらくその影響のような気がします。
私の場合は何の問題もなく起動できていますが、Error1033はおそらくCloudflareのエラー?っぽいですね。
ただ解決方法に関してはすみません、調べてもよくわからないです。
他に表示されているエラーメッセージなどはありますでしょうか?
【参考記事】
https://support.cloudflare.com/hc/ja/articles/360029779472-Cloudflare-1XXX-%E3%82%A8%E3%83%A9%E3%83%BC%E3%81%AE%E3%83%88%E3%83%A9%E3%83%96%E3%83%AB%E3%82%B7%E3%83%A5%E3%83%BC%E3%83%86%E3%82%A3%E3%83%B3%E3%82%B0#h_W81O7hTPalZtYqNYkIHgH
当サイトを参考にColab環境で始めました。chilloutomixから起動確認後、KoreanDollLikenessを導入し起動しました。一度stablediffusionを閉じた後、2回目以降の起動はどこからやるのが良いのでしょうか?
Colabを開いてchilloutmixを実行するのが正解でしょうか
コメントありがとうございます!
仰る通りです!2回目の起動は1回目と同じく、colabから使いたいモデルデータのセットアップファイルを実行すればokです。
Sd-1click-colabでは、chilloutmixとKoreanDollLikenessのセットアップファイルは別れているので、もう一度KoreanDollLikenessを起動したい場合はそのファイルで実行する感じですね。
毎回セットアップに時間がかかるのだけがちょっと残念ですが…
なお、public urlをブックマークしておいても、毎回同じ手順を踏まないとstable diffusionにアクセスできないので注意してください!
ありがとうございます。
chilloutmix実行→KoreanDollLikeness実行(ブログ記載の1と3)→URLから起動
ということでしょうか
無料版なので強制終了もあって面倒ですが頑張ってみます
Sd-1click-colabのipynbファイルには、chilloutmix.ipynbとKoreanDollLikeness_lora.ipynbがあるんですが、Koreandolllikenessを起動する場合は後者のセットアップファイルを実行するだけでokということです。
下記の記事のような感じです!
https://yuuyuublog.org/koreandolllikeness/
無料版だとすぐ制限が来て面倒ですよね~!
chilloutmix.ipynbをアップロードのとこにやってもエラーが起きてしまいます。どうしたらいいですか?
コメントありがとうございます!
どのようなエラーが起きていますでしょうか?表示されるエラーメッセージ等を教えていただけると幸いです!
とても参考になるブログありがとうございますm(_ _)m
最近よくstable diffusionを触っているのですが、どうも他の人の結果と比べると精細さが悪いような気がしています。
モデル、プロンプトなどは揃えているのですが、
グラボの性能で結果が変わることはあるのでしょうか?
それともグラボの違いは作成スピードのみでしょうか?
コメントありがとうございます!
基本的にグラボの性能が関係するのはイラストの生成速度のみのはずです。
出力する画像の精細さには、VAEの使用やHires.fixによる高画質化が大きく影響します。
https://yuuyuublog.org/hiresfix/
特にHires.fixは画質がかなり向上するので、まだの場合はぜひ試してみてください!
また、Twitter等にAIイラストを投稿している方などは、もしかすると他の外部ソフトで修正を加えているのかもしれません(詳しくはよくわからないです)。
でも実際RTX4090などのハイエンドGPUを触ったことがないので、100%確実ではないです。
もしかすると僅かな差はあるのかもしれませんね~。
ご回答ありがとうございます!
Hires.fix触っていませんでしたがブログの記事を見るとかなり変わりますね!
試してみようと思います。
またブログ楽しみにしています
はじめまして。
おすすめのモデルデータはありますか?また、モデルデータの絵柄?的なのを確認できるサイトなどはありますでしょうか?
こんにちは!コメントありがとうございます!
ChilloutMix以外でおすすめのモデルデータといえば、NeverEndingDreamやMeinaMix、FaceBombMix、BasilMIx、RealdosMIxあたりでしょうか。他にもたくさんあります。
Civitaiでイラストを確認することができますよ!
https://civitai.com/
YouTubeのStable Diffusion紹介動画の概要欄からここに辿り着きました
おかげ様で無事設定でき感謝です
丁寧な解説ありがとうございました(強制終了で我にかえったら6時間すぎてた!
コメントありがとうございます!お役に立てて何よりです!
私もイラスト生成していたら時間を忘れてしまいますw
凄く有益で分かりやすかったです ありがとうございました。
githubからダウンロードしたzipファイルをアップロードしようとしてもUnable to read file.とエラーが出てしまいます。現在zipファイル側に何か変更がなされたりはしてないのでしょうか。原因がお分かりになりませんでしょうか。お手数おかけします。
コメントありがとうございます!
もしかしてですが、ZIPファイルをそのままアップロードしようとされていませんか?
解凍して、その中にある.ipynbをアップロードされていますでしょうか?
私も今試してみたんですが、問題なく読み込むことができました。
【追伸】またGoogle Driveの中にあまりにも大量のフォルダを作成していたりデータを保存していると、アップロードしたファイルをColabが読み取れずにエラーを出すことがあるようです。この場合はドライブ内を整理する必要があるようですね。
お恥ずかしい限りですが、その通りでした…笑
問題なくできました、ありがとうございました。
おお!よかったです!
無事解決して何よりです!
お世話になっております
悠さんの記事を参考に話題のAI画像作成に初チャレンジしました!
新しい時代への技術革新に感動ですね
商用向けのモデル、自分オリジナルのモデル作成など色々とやりたい事が増えてしまいますね
今後も参考にさせてください
ありがとうございました
コメントありがとうございます!
Stable Diffusionは本当に革命ですよね。これほどのクオリティのものを僅か数クリックで作成できるなんてw
今後も面白そうなモデルや手法を見つけたら記事にまとめていきますので、ぜひよろしくお願いいたします!
とても分かりやすい記事であっさりとStable Diffusionを使うことができました。
画像生成おもしろいですね。
ただ、生成した画像はどこに保存されるのでしょうか?
何枚か生成した後に見返そうと思ったら見つかりませんでした。
お教え頂けると嬉しいです。
コメントありがとうございます!
生成した画像はGoogle Colaboratoryの左側にあるフォルダ→stable diffusion webui→outputsの中に保存されます。
下記の画像を参考にしてください。
ただランタイムを削除する(一度colaboratoryの画面を閉じてしまう)と消えてしまうため、いい感じの画像が出た場合は右クリック→名前を付けて保存しておくことをおすすめします。
https://yuuyuublog.org/wp-content/uploads/2023/02/269-1.png
はじめまして。
手順通りに実行ボタンを押して、public URLを押したのですが、画像が表示されません。
何かわかりますか?
コメントありがとうございます!
publicURLを押しても画像が表示されないとは、「Stable Diffusion WebUI」が起動しないということでしょうか?
どのようなエラーメッセージが出ているか教えていただいてもよろしいでしょうか?
504エラーの場合は半日ほど時間をおいて再度試すと、問題なくWebUIを起動できる場合もあります。
エラーメッセージがどれか分からないですが、
public URLが出ても、実行ボタンの■が一生回ってる感じです。
public URLをクリックすると、Stable Diffusion WebUIがブラウザの新しいタブで開くはずなんですが、タブ自体開かない感じでしょうか?
Stable Diffusion WebUIのタブは開きますが、右側に表示されるはずの画像が表示されないです。
「Stable Diffusion WebUI」は起動できており、プロンプトを入力してGenerateボタンを押すところまでは行ったけれど、完了度が100%になっても右側のAIイラストが表示される欄にイラストが表示されないということでしょうか?
これ私もよく経験する現象なんですよね~。画像は表示されなくてもcolabのoutputフォルダ(添付)には画像が生成されてるので、右クリックしてダウンロードすることができます。
hires.fixを使ったときによく起こりがちですね。
こうなってしまったら、一度webUIのタブを更新してリフレッシュしたりするとまた表示されるようになります。
※リフレッシュすると入力していたプロンプトが消えてしまうので注意してください。
https://yuuyuublog.org/wp-content/uploads/2023/02/269-1.png
colabにおけるLoraの導入について質問させてください。
悠さんのように『curlの後に、「-Lo /content/stable-diffusion-webui/models/Lora/(使用したいLoraのファイル名)」、「Loraファイルのダウンロードリンク」の順で入力』しコードを実行、エラーもなし。そのままStable Diffusionを開いてみるのですが、〈Show extra networks〉をのぞいてみても、Loraの欄は「Nothing here. Add some content to the following directories:」となってしまい、Loraに関して何も反映されません。
恐れ入りますが、この問題を解決できそうな方法に何か思い当たるものありますでしょうか?ちなみにcivitaiのファイルとリンクを使おうとしています。
コメントありがとうございます!
考えられる原因を3つほど挙げてみます。
(1)Sd-1click-colabは定期的にアップデートを行っているため、loraの導入法が変わった(これはあとで私も検証してみます)
(2)使おうとしていたloraが製作者様によってcivitaiから削除された。
(3)数日前に行われたwebuiの大型アップデートによる問題。最新版のwebuiはどうやら様々なバグがあるそうなので、それによってloraが使用不可能になってしまっている。
この場合はautomatic1111のmaintaind by akaibuという別のノートブックを使ってwebuiをダウングレードする方法がオススメです
https://yuuyuublog.org/facebombmix/
https://yuuyuublog.org/automatic1111downgrade/
挙げていただいた原因に対処してみたところ、導入できました。お忙しい中、回答いただきありがとうございました。これからも記事を楽しみにしております。
該当箇所に間違った情報を載せてしまっていたので記事を修正いたしました。
Civitaiのloraを使う場合、ページのurlではなく、青いボタンのリンクを使う必要がありました。
ご迷惑をおかけしてしまい、申し訳ございませんでした。
こんにちは
ど素人です。
サイトを参考になんとか少し動かせるとこまできました。
わたしの開いたページにはモデルを選択する箇所がございません。
悠さんの使っているのとは違うものでしょうか?
あとseedって何なのでしょうか?桁数が異常にあるので??です。
コメントありがとうございます!
モデルを選択する場所はstable diffusion webuiのウィンドウの左上にありますよ!
Sd-1click-colabのchilloutmixのノートブックなら、chillout~っていうモデルが設定されてると思うんですが、ありませんでしょうか?
Seedというのは生成したAIイラストの識別番号のようなもので、同じseedと同じプロンプトを使うことで、全く同一の画像を再び生成することが出来ます。
下の記事で紹介している高画質化の際によく使う機能ですので、ぜひ参考にしてください!
https://yuuyuublog.org/hiresfix/
なるほど!
ありがとうございます!!
モデル設定は読み込んだ後は1つしか選べず、最初に何を読み込むかで決まってしまうということでしょうか?
この記事で紹介しているsd-1click-colabは初期設定が簡単な分、モデルはあらかじめ決められたものしか選べません。
モデルを変更するには別のノートブックを使う必要があります。
別の記事で紹介しているAutomatic1111のmaintaind by akaibuというノートブックを使った方法なら、用意したモデルを複数切り替えて使うことができますよ!下の記事で紹介しています!
https://yuuyuublog.org/facebombmix/
コメント失礼いたします。
テキストを打ち込み、生成を押すと%が進むにつれて画像が出来上がっていくのですが、最終的に画像が消えてしまい、生成に失敗?してしまいます。
コメントありがとうございます!
生成しようとしている画像のサイズが大きかったり、高画質化を有効にしている場合、webUI右側の生成画像表示欄にすぐ反映されないことがあります。
画像が表示されていなくてもoutputフォルダに保存されていることがあるので確認してみてください(以下の画像はcolabの例)
https://yuuyuublog.org/wp-content/uploads/2023/02/269-1.png
初めまして、以前 NovelAIで遊んでいたのですが
AIコスプレに興味を持ち調べていたところ
YouTubeの動画と こちらの記事を見つけて、とても丁寧な解説で
(低スぺPCなので)Google Colaboratoryを使った方法で楽しんでいます。
ありがとうございます。
NovelAIのようなアニメ風のイラストも
この記事と似たような方法で使用する事はできないでしょうか?
他の記事もいくつか見させてもらったのですが、見つける事が出来ませんでした。
よければ、そういった解説記事も作っていただけると嬉しいです。
コメントありがとうございます!
例えば下の記事で紹介したMeinaMixはいかがでしょうか?個人的に一番大好きなアニメモデルです!
使い方に関しても記事内で説明しています!
https://yuuyuublog.org/meinamix/
また「Anything-v5」のモデルデータを使うのもおすすめです。どちらかというとNovelAIに近いのはこちらかもしれません。
Civitaiで無料で入手できます。使い方は上のMeinaMixの記事と全く同じです!
コメント失礼します。
記載の通りにGoogle Colaboratoryを使用して実行した際に以下のようなエラーが出てしまいました。
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
また、Pythonのバージョンの問題かもと思いPython3.10.6を使用する方法の通りに行ってみましたが、同じエラーが出てしまっています。
このような場合はどう対処したらよいでしょうか?回答よろしくお願いします。
初めまして。いつもたいへんお世話になっています。
昨日まで絶好調で動いていたのですが、今朝から
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
このようなメッセージが出て起動できなくなりました。どういうことが考えられますか?
ありがとうございます。とても感謝しています。
初めまして。とても役立つ記事で参考にしています。google colabで先日までは実行出来ていたのですが、本日試してみると「RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.」このようなエラーが表示されるようになりました。どうやらcolabでバージョンを調節しなくてはならないようなのですが、初学者なのでよく分かりません。出来たら解決策を教えて頂きたいです。
初めまして。サイト参考にさせていただきましたが、実行したところPyTorchとtorchvisionが異なるCUDAバージョンでコンパイルされていると出てしまい、URLが生成されません。どこを変更したらURLが生成されるようになりますでしょうか??
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions.
が出てsd-1click-colabが起動出来なくなったというコメントを5件いただきました。
そのsd-1click-colabですが、本日8時頃全ノートブックがアップデートされていました。開発者が修正したかもしれませんので、新しいノートブックをダウンロードしてぜひもう一度試して見てください。
【追記】
実際にアプデ後のsd-1click-colabを試してみましたが、該当のエラーは解消されていました。
ちなみにmaintained by Akaibuで「RuntimeError: Detected that PyTorch and torchvision」が表示される場合の解決法を、下記の記事にまとめています。
https://yuuyuublog.org/facebombmix/
初めまして。この記事を参考にし昨日まで動かしていましたが、他の方のようにエラーが出て生成ができなくなっていたところ、悠様のコメントのおかげで再度動くようになりました。しかし、出力結果が昨日までと変わって見えます。
具体的には異常に生成スピードが速くなり、画像のクオリティーも落ちているように見えます。
(サイケデリックな色合いで生成画像の鮮明度も低い)
Sampling steps等は変更していないのですが、これは私の環境だけ起こっていることなのでしょうか。
解決策があればご教示いただきたいです。
コメントありがとうございます!
Sd-1click-colabではpublic urlが2つ表示されると思うんですが、そちらを変更しても生成速度は変わりませんか?
色合いに関してはvaeが原因のような気がします。
settings→stable diffusion →vaeの欄にvaeは設定されていますでしょうか?
また以前までのノートブックをお持ちの場合、
!pip install –upgrade fastapi==0.90.1の下に下記のコードを記入すると動くようになるとコメントで教えていただきました。
!pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 torchtext==0.14.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu116 -U
もしお持ちでしたらぜひ試してみてください
早速の返信大変ありがとうございます。
いずれのpublic urlについても結果は同じで以前よりもクオリティーが落ちているように感じます。
chilloutmixが適用されていないことを疑いましたが、Stable Diffusion checkpointは「chilloutmixni.safetensors」が選択されています。
vaeに関しては元々うまく生成できていた頃にも設定していませんでした。今回Autoになっていたので、NONEに変更してみましたが、結果は変わりませんでした。
以前までのノートブックが残っていて、今回払い出されたファイルとDIFF取ると追記箇所以外にも微妙に変わっていたので、コメントを追記して試してみましたが結果は変わりませんでした。
他の方が問題ないのであればやはり私の環境の問題なんでしょうかね。
もう少し様子を見てみようと思います。
ご回答ありがとうございました。
気になったので私も確認してみたんですが、私の場合最新版のノートブックでも特に起動の遅さや画質の劣化は感じませんでした。
固有の問題なのかもしれませんね…お役に立てず申し訳ありません。
こんにちは!
質問なのですが、
プロンプトを入力した際に「Connection errored out.」というエラーメッセージが表示されてしまうのはなぜでしょうか?
(プロンプトはこの記事のものをコピペしています)
コメントありがとうございます!
GitHubで全く同じようなことを言っているページがありました。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/9074
これってColabのランタイムを一度削除して、再起動させても発生しますか?
はじめまして!こちらの記事のとおりにやっても別の画像になるんですが、こういうのってまったく一緒にはならないものなんですか?
コメントありがとうございます!
AIイラストの生成画像は、プロンプトだけではなくSeed値やSampling method、CFG scale、高画質化の設定まですべて一緒にしないと「全く同じ画像」は生成できません。
またこれらを全て同じにしても、GPUが違う(例えばGTX10xxとRTX30xx)と生成結果が変わることもあるといわれています。xformersの有り無しでも変わってきます。
そのため、完全に同じ画像を作るのは意外と難しいんですよね…
はじめまして!
質問なんですが、
Colab版ChilloutMixで複数のLoRAが使えるOptionが追加されていました
とあり、説明の通りやってみたのですが、Loraが増えていません。
Nothing here. Add some content to the following directories:
/content/stable-diffusion-webui/models/Lora
と出てきて、選択肢すらありません。
ちなみに打った文章は
#!curl -Lo /content/stable-diffusion-webui/models/Lora/japanesedolllikenessV1_v15 ~tai.com/api/download/models/34562
#!curl -Lo /content/stable-diffusion-webui/models/Lora/koreandolllikenessV20_v20 ~tai.com/api/download/models/31284
です。
わかればぜひご教示くださいm(__)m
コメントありがとうございます。
LoRAを格納するフォルダがないというエラーですね。
curlコマンドの前に
!mkdir -p /content/stable-diffusion-webui/models/Lora
を入力して動作するかどうか試してみていただいてもいいでしょうか?
あとcurlコマンドが#でコメントアウトされていますが、これは大丈夫でしょうか?セルを実行する際はcurlの前の#は外してくださいね!
お返事ありがとうございます!
#をつけたままにしていたのと、safetensorsまでファイル名をいれていなかったことが原因だったようです。
お手数をおかけいたしました!
とても丁寧な解説ありがとうございます。Webuiを無事開くことができ画像生成もできました。ただ、セルの実行を止めてから再度webuiにを再読み込みすると”No interface is running right now”と表示されます。webuiでの画像再生はセルを常に実行してる状態でなければ行えないのでしょうか?
コメントありがとうございます!
仰る通りです!セルの実行を中断してしまうとWebUIが起動できなくなります。
使う際は常にセルを実行しておいてください。
ちなみに、Colabを終了する(ランタイムを削除する)とWebUIで生成した画像もすべて削除されます。
良いものが生成できたらその都度ローカルに保存しておいてください!
わかりやすい記事有難うございます 質問なのですが記事内の 後は実行ボタンを押して、「Stable Diffusion WebUI」を起動するだけです というのはcolaboの中の上のセルの実行ボタンのことですか?
上の奴と下のoption の2つがあると思うのですがどの順番で実行すればいいのでしょうか?
コメントありがとうございます!
ChilloutMixだけを使いたい場合は、上のセルの実行ボタンだけでOKです。
下のOptionはChilloutMixにLoRAを導入したい時に使います。この場合のやり方も記事の中で紹介しています!
返信ありがとうございます! 上のセルの実行ボタンは押してChilloutMixは使えます しかしOptionのセルの実行タイミングがわかりません
上のセルの実行を押し2つのURLが出てからoptionのセルを実行したらいいのでしょうか?タイミングがわからないのでLoraが使えないのです
わかりにくくてすみません
Loraをsd-1click-colabで使いたいんですね!
その場合は、1つ目のセルを実行してurlが表示されたらそれを中断し、2つ目のセルにダウンロードurlを張り付けて実行すればOKです!
何度もすみません 2つ目のセルにcivitaiから入れたダウンロードURLで
!curl !mkdir -p /content/stable-diffusion-webui/models/Lora ~civitai~/api/download/models/6244
と入力していますが何故かできません
2つ目のセルにダウンロードurlを張り付けて実行すればOKです! の実行とは1つ目のセルをもう一度再生ボタン押せばいいのでしょうか?
!curl -Lo /content/stable-diffusion-webui/models/Lora/(loraの名前) ~civitai/api/download/models/6242
で試してみてください!
実行するのは2つ目のセルの方です!
curlとmkdirコマンドを重ねてはダメですよ!
私が上の方のコメント欄で書いたのは、別のセルにって意味です!
おそらくなくてもいけるはずです
!curl -Lo /content/stable-diffusion-webui/models/Lora/~civitai~/api/download/models/6244
これを入れました https: から 6244 までがcivitaiからコピペしたダウンロードURLです
何かが足らないのでしょうか? 1つ目のセルにURLが出てきてoptionに上の奴を貼って実行しました すると2つのURLが出てきたのですがそこを押してもLoraが出てきません
何が足りないのでしょうか?
loraの名前とはcivitaiのダウンロードURLを入手できる青い箱が出てくるページの上に大きめに書いてるやつでいいのでしょうか?
何度も何度も本当にすみません
まず1つ目のセルを実行します。
urlが表示されたら、左上にある実行ボタン(ぐるぐる回っているやつ)を押して、セルを中断します。
次にoptionのセル(2つ目のセル)に下記のコードを入力します。
!curl -Lo /content/stable-diffusion-webui/models/Lora/makimaChainsawMan_offset.safetensors ~civitai~/api/download/models/6244
~civitai~の部分にはhttpsで始まるcivitaiのurlを入力してください。タヌキチさんが今まで貼っていたものでOKです。2つのurlの間に半角スペースを入れるのを忘れずに。
最後に2つ目のセルを実行し、urlが出たらクリックして起動すると、loraが使えるようになっているはずです。
!curl -Lo /content/stable-diffusion-webui/models/Lora/makimaChainsawMan_offset.safetensors ~civitai~/api/download/models/6244 /api/download/models/6244
これで合ってるんですかね? できないのですが?上を見るとv1 みたいなのがあるけどこれはいらないのでしょうか?
理解力低くてすみません
下の画像のパスで試してみてください!
https://yuuyuublog.org/wp-content/uploads/2023/04/スクリーンショット-781.png
出来ました! ほんとにありがとうございます ちなみにセルに入れる名前はどこに書いてるのを使ってるのですか?
おお!無事できてよかったです!
セルに入れる名前とは、「/content/sd-webui/models/Lora/makimaChainsawMan_offset.safetensors」のことでしょうか?
「/content/sd-webui/models/Lora/」までは固定で、「makimaChainsawMan_offset.safetensors」の部分はCivitaiでダウンロードしたLoRAファイルの名前そのままですよ!
つまりコラボ使っててもセルに入れるloraファイルの名前を知ろうとすると一度ダウンロードしないといけないということですか?
あとloraファイルを入れれたのはいいのですがトリガーワードは入れているのですが全然関係ない絵が出てきます そこでcivitaiのloraのページに書いてあるEpochの数字は何なのでしょうか?関係あるのですかね?
このsd1clickcolabでcivitaiのloraを使おうとすると、一度DLして名前を確認する必要がある、と思われます。
※どこかに書いてあるかもしれませんが、私は面倒なのでDLして確認しちゃいますねw
Huggingfaceだと名前が書いてあるから楽なんですけどね。
epochとはどの部分のことでしょうか?LoRAが効いているか確認したい時は、とりあえずCivitaiのサンプル画像のプロンプトを丸コピペして試してみると楽ですよ!
epoch はcivitai の ~civitai~/models/5373/makima-chainsaw-man-lora にある35の数値が書いてるやつです Type Lora の票に書かれてるやつです
このサイトで紹介されているstable diffsion で別のモデルを使うことはできますか?
ああわかりました!それは該当のLoRAを生成するときに製作者様が使ったパラメータなので、特に入力する必要はありませんよ!
sd-1click-colabで別のモデルを使いたい時は、ノートブックを変えるだけでOKです。ノートブックの名前がモデル名になっています!
ローカルやmaintained by akaibuなら、自分でDLしたモデルを簡単に使えます!
https://yuuyuublog.org/stablediffusion_local/
https://yuuyuublog.org/facebombmix/
コメント失礼いたします。本日ここで書かれている様にcolabでStable Diffusion WebUIを起動させてAI生成をしようとしたら「警告」実行中のコードは許可されていない可能性があるため、今後の Colab の利用を制限させていただく場合があります。よくある質問で指定されている禁止行為をご確認ください。と出たのですが問題無いのでしょうか?
コメントありがとうございます!
その件に関しては下記の記事で詳しくまとめています!
https://yuuyuublog.org/sd_colabend/
返信、記事ありがとうございます。
丁度PCの買い替えをしようと思っていた所なので、良いPCにして頑張ってローカル環境構築する事にします。
有料版StableDiffusionのGooglecolbaでこの共有リンクは72時間で期限切れになりますっとでてます! https://huggingface. co/spacesでGPUをアップグレードしてくださいと言っていますが?次に何をしていいかわかりませんのでどなたか教えていただけるとありがたいです!宜しくお願いします
先程の質問の追加です!この共有リンクは72時間で期限切れになります。無料のパーマネントホスティングとGPUアップグレード(NEW!)については、Spacesをチェックしてください: ttps://huggingface.co/spacesと言うコメントが出ます!この後何をどうすればいいか思案宜しくお願い致します。
コメントありがとうございます!
public urlは表示されていますでしょうか?それをクリックするとwebuiが起動しませんか?
共有リンクは72時間で期限切れ、という文言は特に問題ないですよ!
返信ありがとうございます!NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs:
query : shape=(2, 4096, 8, 40) (torch.float16)
key : shape=(2, 4096, 8, 40) (torch.float16)
value : shape=(2, 4096, 8, 40) (torch.float16)
attn_bias :
p : 0.0
`cutlassF` is not supported because:
xFormers wasn’t build with CUDA support
`flshattF` is not supported because:
xFormers wasn’t build with CUDA support
`tritonflashattF` is not supported because:
xFormers wasn’t build with CUDA support
`smallkF` is not supported because:
xFormers wasn’t build with CUDA support
dtype=torch.float16 (supported: {torch.float32})
max(query.shape[-1] != value.shape[-1]) > 32
StableDiffusionのGooglecolbaで打ち込んでこんな感じでエラーになってしまいます!どうすればいいかわかりません!宜しくお願い致します。
Commandline agesの中にある、–no-half-vae、 –xformers、 –reinstall-xformersを1つずつ消してセルを実行すると動くようになりませんでしょうか?
起動出来ました!ありがとうございました!又分からない事ありましたら宜しくお願い致します。
はじめまして。分かりやすい記事で、自分でも作品を描くことができるようになりました。ありがとうございます。なんですが、最近「public URL」が表示されなくなり、画像生成が出来なくなってしまいました・・・
何か原因有りますでしょうか?エラーとかも良く分からなくて・・・
RuntimeError: Error running command.
Command: “/usr/bin/python3” -c “import torch; assert torch.cuda.is_available(), ‘Torch is not able to use GPU; add –skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check'”
Error code: 1
stdout:
stderr: Traceback (most recent call last):
File “”, line 1, in
AssertionError: Torch is not able to use GPU; add –skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
↑が出てました。
コメントありがとうございます!
セル内にあるCOMMANDLINE_ARGS=””の中に–skip-torch-cuda-test(最初のハイフンは2回です)を入れて、再度セルを実行することでエラーが解消されませんか?
また同じエラー報告をいただいているんですが、その方は一度ランタイムを削除して再度接続するとエラーなく使えるようになったらしいです。
Colabで割り当てられたGPUが関係しているのかもしれませんね。
お返事ありがとうございます。1度ランタイムを削除して接続すると、「public URL」が出て来るようになりました。ダメだった時は何度やっても「GPUの~」って表示が出てましたから、仰る通りかもです。本当にありがとうございます!
再度コメント失礼します。「Stable Diffusion」を導入しようとすると、課金しないとだめみたいですね(汗)BRAを導入してみたかったのですが・・・
https://yuuyuublog.org/sd_colabend/
上の件ですよね?残念ですが今の無料版colabでWebUIを使うのはなかなか厳しいですよね。
もしGPU付きのPC(VRAM4GB以上)をお持ちでしたら、ローカル環境を構築するのもおすすめです!
https://yuuyuublog.org/stablediffusion_local/
初めまして!参考にしてStable Diffusion Web UIをColaboratoryで開いてるのですが、インストールが完了してもURLが出て来なくて先に進めないです。どうしたら良いでしょうか?
コメントありがとうございます!
エラーメッセージは表示されていますでしょうか?
「URLが出て来なくて先に進めない」場合、一度ランタイムを削除してWebUIを再起動すると高確率で表示されます!
先ほどコメントしたものです。何回かインストールしたり実行を中断とかをやってたら
FileNotFoundError Traceback (most recent call last)
in ()
27 get_ipython().system(‘curl -Lo /content/stable-diffusion-webui/extensions/sd-webui-controlnet/models/control_seg-fp16.safetensors https://huggingface.co/webui/ControlNet-modules-safetensors/resolve/main/control_seg-fp16.safetensors‘)
28 import shutil
—> 29 shutil.rmtree(‘/content/stable-diffusion-webui/embeddings’)
30 get_ipython().run_line_magic(‘cd’, ‘/content/stable-diffusion-webui’)
31 get_ipython().system(‘git checkout 0cc0ee1’)
1 frames
/usr/lib/python3.10/shutil.py in rmtree(path, ignore_errors, onerror)
711 # lstat()/open()/fstat() trick.
712 try:
–> 713 orig_st = os.lstat(path)
714 except Exception:
715 onerror(os.lstat, path, sys.exc_info())
FileNotFoundError: [Errno 2] No such file or directory: ‘/content/stable-diffusion-webui/embeddings’
と出てきて進まなくなってしまいました。どうしたら良いでしょうか?
これはランタイムを削除せず、複数回セルを実行したり中断したりしているということですよね?
何か挙動が変になった場合は、一度「ランタイムを削除する」のがおすすめです!
返信ありがとうございます!ランタイムとは実行ボタンを押したらいっぱい出てくるコードみたいなのですよね。バツボタンで消してからまた実行してるのですが、一向にURLが出て来ません。WindowsじゃなくてMACだからでしょうか?あと、エラーメッセージがどの辺にあるのかわからなかったのでダメそうになってる所を貼り付けます。
dpkg: warning: downgrading google-perftools from 2.7-1ubuntu2 to 2.5-2.2ubuntu3
dpkg: warning: downgrading libgoogle-perftools4:amd64 from 2.7-1ubuntu2 to 2.5-2.2ubuntu3
dpkg: warning: downgrading libtcmalloc-minimal4:amd64 from 2.7-1ubuntu2 to 2.5-2.2ubuntu3
stderr: error: subprocess-exited-with-error
× Building wheel for pycairo (pyproject.toml) did not run successfully.
│ exit code: 1
╰─> See above for output.
note: This error originates from a subprocess, and is likely not a problem with pip.
ERROR: Failed building wheel for pycairo
ERROR: Could not build wheels for pycairo, which is required to install pyproject.toml-based projects
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
ランタイムの削除は簡単に言うとcolabの再起動です!下記の項の一番最後で削除方法を紹介しています!
https://yuuyuublog.org/ai_cosplay/#toc4
RuntimeError: Detected that PyTorch and torchvision were compiled の治し方は、下の記事で紹介しているので、ぜひ記事内のコードを追記してみてください!
https://yuuyuublog.org/facebombmix/
とはいえwebUIのバージョンが更新されてから、そのエラーは表示されなくなったはずなんですよね。
cielさんはこの記事で紹介しているsd-1click-colabを使用されています?それとも自作ノートブックでしょうか?
やっぱりうまくいかないです。今ダウンロードしてるのはkoreandolllikeness_LoRA.ipynbなのですが、やり方は同じですか?https://yuuyuublog.org/facebombmix/ で紹介されていたSD1.5というセルがないです。
sd-1click-colabのノートブックを使用されているんですね。わかりました!
https://github.com/nolanaatama/sd-1click-colab/issues/44
上のissueで同じようにurlが表示されないというエラー報告がされていました。
これによると、
!COMMANDLINE_ARGS=”–disable-safe-unpickle –no-half-vae –xformers –reinstall-xformers –enable-insecure-extension –gradio-queue –cloudflared”
に書き替えるといいそうです。これを試してみていただいてもいいでしょうか。
https://yuuyuublog.org/facebombmix/
上の記事はsd-1click-colabとはまた別のノートブックを使っているので、sd1.5がなくても大丈夫です!
こんにちは。男の子のプロンプト例作成してほしいです
料金はお支払いします。
一度お話しできませんか?
コメントありがとうございます!
私事ですが、最近1girlを1boyに変えてカッコいい男性キャラ(アニメ風)や渋いオッサンキャラ(アニメ風)をちょくちょく作ってみているところですw
何回か先の記事のサムネに使うかもしれません(*’ω’*)
話がそれましたが、男性キャラのプロンプトはかなり少ないですよね。植木さんはリアル系とアニメ系のどちらがお好きですか?今後男性キャラをアニメ・2.5D・リアル系で作ってみてプロンプトと一緒に記事化しようかな~って少し考えています。
Majinaiとかを覗くと男キャラのプロンプトが載っていたりするので、参考になるかと思いますよ!
あと申し訳ありませんが、私はプロンプトや画像の有償販売は今後も一切する気はないです…ただ時間があるときに試して、いいのができたら記事内に設定・プロンプトと一緒に公開しますので、よかったらたまに覗いてみてくださいね!
4月にこのサイトの「Chilloutmix導入」を見て、作画AIをすることが出来ました。ありがとうございます。
久しぶりに、google colabを使ってみると、エラーでてURLがでてこなくなりました。
ImportError :cannot import name ‘_compare_version’ from ‘torchmetrics.utilities.imports’ (/usr/local/python3.10/dist-package/torchmetrics/utilities/imports.py)
torchmetricsのバージョンは1.0.0で変更はしていないです。
コードの10行目のCUDAか、pytorchのバージョンがおかしいのかと思って変更すると、今度は、「ERROR2」ファイル、フォルダが見つかりませんと出て止まります。!lsで確認するとファイルは存在するんですよ。
””python3:can’t open file ‘/content/sd-webui/launch.py’ : [ERROR2] No such file or directory””
普通にwindows環境からで、google colabは100ユニット購入して40ユニットは残があります。
この方法では使えないのでしょうか?解決策を知っていれば教えてください。