こんにちは!悠です!
下記の記事で紹介している「sd-1click-colab」は導入が非常に簡単で、初心者の方には非常におすすめのAIイラスト生成方法なのですが、製作者様が用意してくれている以外のモデルやLoRAを使用する際に設定が面倒だという難点があります。

そこで今回は、「AUTOMATIC1111」が用意しているノートブック「maintained by Akaibu」を使って、Google Colaboratory上で自分の好きなモデルデータやLoRAを使用する方法についてまとめていきます!
なお、アイキャッチ画像には、2.5D調のAIコスプレイヤーを作成できるモデルデータ「FaceBombMix」を使用しています。

「sd-1click-colab」に含まれていないモデルデータを扱いたい場合は、ぜひこの記事を参考にしてください!
モデルデータの入手方法
今回使用する「FaceBombMix」のモデルデータは、Civitaiからダウンロードできます。
Civitaiで「FaceBombMix」と検索してみましょう。
なお、FaceBombMixではVAEの使用が推奨されているので、下記リンク先から一緒にダウンロードしておきましょう。

Colab版の起動方法【AUTOMATIC1111】
今回の方法は、下記の記事を参考にさせていただきました。

まず自身のGoogle Driveを開き、マイドライブの中に下記のようにStableDiffusionのフォルダを作成しましょう。
ModelフォルダにFaceBombMixを、VAEのフォルダにkl-f8-anime2.ckptをそれぞれアップロードしておきます。
次に、AUTOMATIC1111のGitHubページ(下記)に移動し、「maintained by Akaibu」をクリックしてください。
自動的にGoogle Colaboratoryのノートブックが立ち上がります。
※なお、そのまま立ち上がったノートブックにコードを記述していっても構いませんが、再度起動する場合のことを考えて、「ファイル」→ 「ドライブにコピーを保存」からノートブック自体をドライブ内に保存して編集することをおすすめします。
一番上の「Adapted from ・・・」と書いてあるセルの枠線あたりにマウスカーソルを持っていき、「+コード」をクリックします。
セルが表示されるので、下記のコードをコピペします。
このコードを実行することで、Google Colaboratory上でGoogle Driveのフォルダを読み込むことができるようになります。
from google.colab import drive
drive.mount('/content/drive')
次に、SD1.5と書いてあるセルの中の不要なコードをコメントアウトします。
下3行(下記画像の赤枠)のコードの先頭に#を付けてください。
SD1.5のセルの下枠にマウスカーソルを持っていき、「+コード」をクリックします。
セルが表示されるので、下記のコードをコピペします。Google Drive上に保存したモデルデータをColab内にコピーするコードです。
なお、FaceBombMix以外のモデルデータを使用したい場合は、「facebombmix_v1.safetensors」の部分を変更するだけでOKです。
!cp /content/drive/MyDrive/StableDiffusion/Model/facebombmix_v1.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/ !cp /content/drive/MyDrive/StableDiffusion/VAE/kl-f8-anime2.ckpt /content/stable-diffusion-webui/models/VAE
パスがわからなくなったら、Google Colaboratoryの左側にあるファイルを開いて、該当のフォルダまたはファイルで右クリックするとパスをコピーできます。
最後に一番下のセル内にあるCOMMANDLINE_AGES=””の中に、
--xformers
を追記しておきましょう。これはAIイラストの生成速度を早くするコマンドです。
ここまでで準備は完了なので、実行ボタンを上から順にクリックしていきましょう。
特にエラーがなければ、最後に出現するpublic URLをクリックして「Stable Diffuison WebUI」を起動しましょう。
ログイン画面が表示されるので、usernameに「me」、passwordに「qwerty」と入力してください。
これで操作は完了です。お疲れ様でした。
なおStable Diffusionを一度終了する場合は、ブラウザの×ボタンを押したり、タブを閉じたりするのではなく、Google Colaboratoryの「ランタイム」→「ランタイムを接続解除して削除」を選択しましょう。
RuntimeError: Detected that PyTorch and torchvision
2023年4月時点では、上記のようなエラーが表示されてしまう場合があります。
この際はノートブックの一番上に新しくセルを追加し、下記のコマンドを実行してください。
!pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 torchtext==0.14.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu116
私の場合は上のコマンドでエラーを解消できたのですが、下記のコマンドを使って直った方もいらっしゃるようです。
!pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117
【参考記事】
ModuleNotFoundError: No module named ‘pytorch_lightning.utilities.distributed
2023年6月27日に公開された「Stable Diffusion WebUI」のバージョン1.4.0をColabで使うと、「ModuleNotFoundError: No module named ‘pytorch_lightning.utilities.distributed」というエラーが出て起動できないことがあるそうです。
この件に関して読者の方から、下の記事のコメント欄で複数の対処法を教えていただいたのでぜひ参考にしてください。

FaceBombMixのプロンプト例
FaceBombMixの概要欄におすすめの設定が載っているので、まずは下記の設定を変更しましょう。
どこで設定するかわからない場合はこの記事を参考にしてください。
- Clip skip : 2
- ENSD : 31337
- Sampling method : DPM++ SDE Karras
- Sampling steps : 24~32
hires.fixを使いたい場合は下記の設定がおすすめです(参考記事)
- Upscaler : R-ESRGAN 4x+ Anime6B
- Hires steps : 15
- Denoising strength : 0.3
なお私の場合だけかもしれませんが、上の方法で紹介したColab版だと、たまにhires.fixを行うとGenerateボタンがクリックできなくなることがあります。
解決策はhires.fixで高画質化画像作成後、プロンプト領域をクリックし、SHIFT+ENTERキーを押してください。
これで再度AIイラストが作成されるようになります。
【プロンプト1】金髪ヴァンパイア
(masterpiece, sidelighting, finely detailed beautiful eyes: 1.2), masterpiece*portrait, realistic, 3d face, glowing eyes, blonde hair, red eyes, (vampire), very long hair, lustrous skin, solo, embarassed, medium breasts, cross, church, fire,
(worst quality, low quality:1.4), watermark, logo, EasyNegative
【プロンプト2】人魚
(masterpiece, sidelighting, finely detailed beautiful eyes: 1.2), masterpiece*portrait, realistic, 3d face, glowing eyes, silver hair, blue eyes, (mermaid), very long hair, lustrous skin, solo, embarassed, medium breasts, wet, ocean
(worst quality, low quality:1.4), watermark, logo
【プロンプト3】サキュバス
(masterpiece, sidelighting, finely detailed beautiful eyes: 1.2), masterpiece*portrait, realistic, 3d face, glowing eyes, cleavage, upper body, red hair, blue eyes, ((succubus)), very long hair, lustrous skin, solo, embarassed, medium breasts, bedroom, beautiful lightning
(worst quality, low quality:1.4), watermark, logo
hires.fixで高画質化した画像の保存場所
通常のWebUIだとhires.fixを行った高画質化画像は、AIイラストの生成欄に表示されるんですが、上記で紹介したColab版だとなぜか表示されないことがあります。
その時はGoogle Colaboratoryの左端にあるフォルダから、下記のように「/stable-diffusion-webui/outputs/txt2img-images/(日付)」の中にある画像を右クリックしてダウンロードしましょう。
LoRAを使う方法
AUTOMATIC1111のColab版「maintained by Akaibu」で、LoRAを使う方法について下記の記事でまとめています。

スマホでColab版WebUIを起動する方法
外出先などからスマートフォンを使って、Colaboratory版の「Stable Diffusion WebUI」を起動する方法についてまとめた記事です。

まとめ
以上が「Stable Diffusion」で、「AUTOMATIC1111」が用意しているノートブック「maintained by Akaibu」を使って、Google Colaboratory上で自分の好きなモデルデータやLoRAを使用する方法の紹介でした。
この方法ならば、おそらくすべてのモデルをGoogle Colaboratoryで使用することができるので、ぜひ試してみてくださいね!
では、ここまで読んでいただきありがとうございました。
コメント
わかりやすい解説ありがとうございます。
サイトに書かれてある通りにコードを入力してパスワードを入れ、Stable Diffusionを起動することができました!!
ただプロンプト例を入力して生成してみると例の人物とと全く違うものが生成されてしまいます。
設定も同じにしているのですが毎回違うものになってしまいます。
原因などわかりますでしょうか。
コメントありがとうございます!無事起動できて何よりです。
プロンプトや各種設定を全く同じにしても、この記事のイラストと同じものが作成できないのはSeed値が違うからです。
Seed値に関しては下記の記事で紹介していますが、要は生成されたAIイラストの識別番号のようなものです。
https://yuuyuublog.org/hiresfix/
全く同じプロンプト、全く同じ設定を使っても、Seed値が違うと全然違う画像になります。
はじめまして。
悠さんのサイトを見てAI画像生成を始めました。
とても分かりやすい解説でとてもありがたいです。
ですが、今、困っています。
RuntimeError: Detected that PyTorch and torchvision
というのが例によって出ました。
新しいノートブックでやり直しても同じ症状が出てしまいました。
そこで、ノートブックの一番上に新しくセルを追加し、下記のコマンドを~
というのも試してみたのですが、
途中で、
dpkg: error: cannot access archive ‘*.deb’: No such file or directory
というのが出てきて、最後にも
python3: can’t open file ‘/content/stable-diffusion-webui/launch.py’: [Errno 2] No such file or directory
というようなエラーが出てしまったようです。
どうすればよいのでしょうか…。
コメントありがとうございます!
私の場合は記事内のコードで直ったんですが、Githubを探してみると下記のコード
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu117
(extraの前はハイフン2つです)
で直ったという方もいるようです。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/9341
一度ランタイムを再起動して、こちらのコードも試してみていただいてもいいでしょうか?
お返事いただきましてありがとうございます。
試してみたのですが、私のでは再びエラーが出てしまいました。
あれこれ情報を探していた中で見つけたのですが、
%pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu117
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui
!wget (civitaiのurl)/api/download/models/11745 -O /content/stable-diffusion-webui/models/Stable-diffusion/Chilloutmix-Ni-pruned-fp32-fix.safetensors
!python launch.py –share –xformers –enable-insecure-extension-access
というもの全てを入れることで再び使えるようになりました。
なぜこれで使えるようになったのかはさっぱりわかりませんが…。
お力添えありがとうございました。
これからも様々な情報を提供してくださる記事の数々、楽しみにしています。
FaceBombMix のダウンロード方法がわかりません。どうしたらいいですか?
コメントありがとうございます!
Civitaiで「FaceBombMix」と検索するとダウンロードできますよ!
UIは立ち上がったのですが、Generateボタンを押下しても反応がありません。
プロンプトの入力等はできているのでUIが完全に操作を受け付けていないわけではなさそうなのですが・・・
コメントありがとうございます!
ローカル版と比べるとColab版は動作がモッサリしているので、Generateボタンを押してもすぐに反応しないことがあります。特に夜の時間帯なんかに起こりやすい印象です。
こういう際に焦ってGenerateボタンを何度も押してしまうと、WebUIがフリーズしてしまうことがあります。
その時は一度セルを中断して、もう一度実行し直してみてください。
失礼します。上記の流れに従って実行しているのですが、最後に出現するpublic URL「https://huggingface.co/spaces」をクリックしてもhuggingfaceのトップ画面らしき画面が表示されるのみであり、手順のように自動でログイン画面が表示されStable Diffusionが利用できるようにはなりませんでした。何かご存知ありませんでしょうか。
コメントありがとうございます!
そのurlは違います!public urlはその上に表示されているhttps://(乱数).gradio.liveみたいなやつです!
早急なご返答ありがとうございます。
はじめまして。
わかりやすい説明ありがとうございます。
同じプロンプトで金髪ヴァンパイアを生成したのですが、テイストが全く違う画像が生成されてしまいます。
モデルデータで何かしら問題があるのかと思いますが、対処方法がわかりません。
どうしたらよいでしょうか?
↓生成された画像
https://share.cleanshot.com/8Rltv50v
コメントありがとうございます!
ウィンドウ一番上のstable diffusion checkpointの欄で、facebombmixが選ばれていないためだと思います!
別のモデルデータが有効になっているので、全く違うテイストの画像が生成されているようですね!
それはそうとアートを感じる画像ですねw生首2つw
ご丁寧に説明いただきありがとうございます。
無事解決しました。
悠さんいつもありがとうございます!
一点ご質問があります。
上記設定で進めた際に100%まで行ったところでたまに書きエラーが表記されます。。
解決方法がもしわかればご教示いただけますと幸いです。
いつも初心者の質問ばかりで大変恐縮ですがご確認よろしくお願い致します。
エラ〜メッセージ内容
modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there’s not enough precision to represent the picture. Try adding –no-half-vae commandline argument to fix this. Use –disable-nan-check commandline argument to disable this check.
コメントありがとうございます!
これ私もたまーに出るエラーですね。多分ですけど毎回出るわけじゃないですよね?
VAEがfp16の範囲じゃ処理しきれないよ~ってエラーらしいです。
commandline_agesの中に–no-half-vaeを入れて起動すれば出現頻度は少なくなると思いますが、多少vramの消費量が増えるようです。
なおそれでも100%収まる訳では無いようなので、どうしても嫌なときは–disable-nan-checkも入れてみてください。
どうやらこれは、該当エラーが出ても中断せず強引に出力出来るようになるコマンドのようです。
悠さん、詳細なご説明ありがとうございます!
悠さんもたまにでるエラーと聞いて安心しました♪
しかも具体的な対処法まで、、、(涙)
ありがとうございます!!
悠さんいつもありがとうございます!
一点困ったことが起きました!
Civitaiで入れたcheckpointとLoraを入れた際に下記画像のように少し薄暗い画像に仕上がってしまいます(涙)
※右が見本で左が私の出力
checkpointによっては明るく出力される時もあるのですが、
(yesmix_v16Original.safetensorsは綺麗に出るのですが、mixProV4_v4.safetensorsやdosmix_.safetensorsは薄暗くなっちゃいます、、)
これは仕様上しょうがないものなのでしょうか?
恐れ入りますがご教授いただけますと幸いです!
コメントありがとうございます!
Driveのurlはこうへいさんのメールアドレスが乗っていたので、念の為削除しました。
予想ですがvaeを適用されていないのでは無いのでしょうか?
https://yuuyuublog.org/sdmodels/#toc5
↑で紹介している840000を使えば綺麗になると思いますよ!
モデルデータによってはvaeを焼き付けてあるものもあるので、その場合はvae無しでも色が綺麗に出るんですよね
後、ネガティブプロンプトにmonochromeとgreyscaleを入れるのも結構効果があります!
悠さん、
詳細なご説明&メアドへのお気遣い、誠にありがとうございます(涙)
なるほど!
VAEが原因なのですね!
詳細な記事を書いていただいているにもかかわらずご丁寧に説明をいただき、大変申し訳ありませんでした!
質問なのですがGoogle ColaboratoryでVAEやclip skip の設定を出す方法を教えていただきたいのですが可能でしょうか。
通常のStable Diffusionでの出し方を試したのですがうまくいきませんでした。
コメントありがとうございます!
Colab版もローカル版と同じ操作のはずなのですが、VAEは、
Settings → Stable Diffusion → SD VAE
Clip skipは、
Setting → Stable Diffusion → Clip Skip
で設定できませんでしょうか?
返信ありがとうございます!解決しました!
ついでにもう一つ質問があるのですが、通常のStable Diffusionとまったく同じ呪文で生成したところColab版だとモヤがかかってしまいます。VAEやEasyNegativeも導入済みです。なにかたりないものがあるのでしょうか?
VAEを選択したけど、Apply settingsをクリックしてなくて適用していないとかありませんか?意外とこれよくありますw
colab版とローカル版で全く同じ条件(プロンプト、Seed値、サンプラーなど)で生成していらっしゃいますでしょうか?
モヤとは彩度が薄い感じでしょうか?例えばローカルではネガティブにmonochromeやgreyscaleを入れているけど、colabでは含めていないとかありませんか?
そんなバカな…って思ってたら本当にApply settings押してませんでしたw
お騒がせしてすみませんでした。ありがとうございました!
いつも大変参考にさせていただいております。
この度、新しいモデルで試そうとしているのですが、上手くいきません。
モデル:braBeautifulRealistic_v40.safetensors
実行していくと特にエラーも出ず起動はするのですが、どうもモデルが読み込めていないようで、モデル無し特有の画像しか生成できない状況です。
!cp /content/drive/MyDrive/StableDiffusion/model/braBeautifulRealistic_v40.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/
で入力している箇所は
実行しても特に何も表示されずに終了していますが、問題ないでしょうか?
コメントありがとうございます!
良くありがちなミスなんですが、ウィンドウ左上のモデルを選択する欄が「braBeautifulRealistic_v40.safetensors」になっていないとかありませんでしょうか?
モデルを読み込むセルを実行して処理が終わっても、何も表示が出ないのは正常ですよ!
ありがとうございます!
仰っしゃられる通りでした、お恥ずかしい。
前に試した時はそこも見ていたつもりだったんですが、今やってみるとちゃんと選べるようになっておりました。
大変ありがとうございます。
コメント失礼します。今日StableDiffusionを起動したところ急にupscalerのSwinIR 4xが消えてしまっていました。
それと同時にイラストを出力してもError completing request
Arguments: (‘task(jrvu4422yfajogc)’, ”, ”, [], 20, 0, False, False, 1, 1, 7, -1.0, -1.0, 0, 0, 0, False, 512, 512, True, 0.7, 2, ‘Latent’, 0, 0, 0, [], 0, , False, False, ‘positive’, ‘comma’, 0, False, False, ”, 1, ”, [], 0, ”, [], 0, ”, [], True, False, False, False, 0, None, False, 50) {}
Traceback (most recent call last):
File “/content/stable-diffusion-webui/modules/call_queue.py”, line 57, in f
res = list(func(*args, **kwargs))
File “/content/stable-diffusion-webui/modules/call_queue.py”, line 37, in f
res = func(*args, **kwargs)
File “/content/stable-diffusion-webui/modules/txt2img.py”, line 56, in txt2img
processed = process_images(p)
File “/content/stable-diffusion-webui/modules/processing.py”, line 515, in process_images
res = process_images_inner(p)
File “/content/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/batch_hijack.py”, line 42, in processing_process_images_hijack
return getattr(processing, ‘__controlnet_original_process_images_inner’)(p, *args, **kwargs)
File “/content/stable-diffusion-webui/modules/processing.py”, line 673, in process_images_inner
devices.test_for_nans(x, “vae”)
File “/content/stable-diffusion-webui/modules/devices.py”, line 156, in test_for_nans
raise NansException(message)
modules.devices.NansException: A tensor with all NaNs was produced in VAE. This could be because there’s not enough precision to represent the picture. Try adding –no-half-vae commandline argument to fix this. Use –disable-nan-check commandline argument to disable this check.
このようなエラーが出てしまいます。色々調べたのですが対処法がわかりません。どうか対処法を教えていただけると幸いです。
コメントありがとうございます!
今、怒涛の勢いでAUTOMATIC1111のWebUIがアップデートされていまして、多数のバグが出ているんですよね~。
ローカル版の場合だと一度再起動すればupscalerのSwinIR 4xは復活するという話を聞いたんですが、Colabだとどうですかね…
数日時間をおいてアプデが落ち着くのを待つか、下の記事の方法でwebUIをダウングレードするのがおすすめです。
https://yuuyuublog.org/automatic1111downgrade/
あと該当のエラーはVAEの処理に関係するエラーで、毎回表示されるわけではないのなら無視してOKです。
commandline_ages= に–no-half-vaeを入れることで改善される可能性がありますが、VRAM消費量が増えます。 –disable-nan-checkを入れればそのエラーが出ても無視してイラストを出力してくれるようになります。
最初のハイフンは2つつなげる必要があるので注意してください!
返信ありがとうございます。
webuiをダウングレードし!COMMANDLINE_ARGSを起動したところTraceback (most recent call last):
File “/content/stable-diffusion-webui/launch.py”, line 10, in
from modules import cmd_args
ImportError: cannot import name ‘cmd_args’ from ‘modules’ (unknown location)
このようなエラーが出て起動できません。なにか手違いがあるのでしょうか。
https://yuuyuublog.org/automatic1111downgrade/
上の記事の、次のコードの部分にどのように入力されたのか教えていただいても構いませんでしょうか?
#旧versionのWebUIを複製
import shutil
folder_1 = ‘/content/drive/MyDrive/StableDiffusion/1111oldversion/stable-diffusion-webui-a9fed7c364061ae6efb37f797b6b522cb3cf7aa2’
folder_2 = ‘/content/stable-diffusion-webui’
shutil.copytree(folder_1 , folder_2)
%cd /content/stable-diffusion-webui
#旧versionのWebUIを複製
import shutil
folder_1 = ‘/content/drive/MyDrive/StableDiffusion/1111oldversion/stable-diffusion-webui-72cd27a13587c9579942577e9e3880778be195f6’
folder_2 = ‘/content/stable-diffusion-webui’
shutil.copytree(folder_1 , folder_2)
%cd /content/stable-diffusion-webui
#LoRAモデルを格納するフォルダを作成
!mkdir -p /content/stable-diffusion-webui/models/Lora
#Hypernetworkを格納するフォルダを作成
!mkdir -p /content/stable-diffusion-webui/models/hypernetworks
こんな感じです
そのコミットって2日前のものっぽいんですが、直近1週間くらいでAutomatic1111は大規模アプデが進行中です。
なのでかなり不安定な可能性があります。
出来れば1ヶ月、2ヶ月のやつを試してみていただいてもいいでしょうか?
もし特にこだわりがなければ下のやつがおすすめです。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/tree/a9fed7c364061ae6efb37f797b6b522cb3cf7aa2
こちらにコメントで相談させてください。
以下のようなエラー、良く分からないのですが原因は矢張りグレードですか?
~~ここから~~
Launching Web UI with arguments: –share –gradio-debug –xformers –gradio-auth me:qwerty
Traceback (most recent call last):
File “/content/stable-diffusion-webui/launch.py”, line 353, in
start()
File “/content/stable-diffusion-webui/launch.py”, line 344, in start
import webui
File “/content/stable-diffusion-webui/webui.py”, line 22, in
import pytorch_lightning # pytorch_lightning should be imported after torch, but it re-enables warnings on import so import once to disable them
File “/usr/local/lib/python3.10/dist-packages/pytorch_lightning/__init__.py”, line 34, in
from pytorch_lightning.callbacks import Callback # noqa: E402
File “/usr/local/lib/python3.10/dist-packages/pytorch_lightning/callbacks/__init__.py”, line 14, in
from pytorch_lightning.callbacks.callback import Callback
File “/usr/local/lib/python3.10/dist-packages/pytorch_lightning/callbacks/callback.py”, line 25, in
from pytorch_lightning.utilities.types import STEP_OUTPUT
File “/usr/local/lib/python3.10/dist-packages/pytorch_lightning/utilities/types.py”, line 28, in
from torchmetrics import Metric
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/__init__.py”, line 14, in
from torchmetrics import functional # noqa: E402
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/functional/__init__.py”, line 14, in
from torchmetrics.functional.audio.pit import permutation_invariant_training, pit_permutate
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/functional/audio/__init__.py”, line 14, in
from torchmetrics.functional.audio.pit import permutation_invariant_training, pit_permutate # noqa: F401
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/functional/audio/pit.py”, line 22, in
from torchmetrics.utilities.imports import _SCIPY_AVAILABLE
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/__init__.py”, line 1, in
from torchmetrics.utilities.checks import check_forward_full_state_property # noqa: F401
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/checks.py”, line 25, in
from torchmetrics.utilities.data import select_topk, to_onehot
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/data.py”, line 19, in
from torchmetrics.utilities.imports import _TORCH_GREATER_EQUAL_1_12, _XLA_AVAILABLE
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/imports.py”, line 112, in
_TORCHVISION_GREATER_EQUAL_0_8: Optional[bool] = _compare_version(“torchvision”, operator.ge, “0.8.0”)
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/imports.py”, line 78, in _compare_version
if not _module_available(package):
File “/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/imports.py”, line 59, in _module_available
module = import_module(module_names[0])
File “/usr/lib/python3.10/importlib/__init__.py”, line 126, in import_module
return _bootstrap._gcd_import(name[level:], package, level)
File “/usr/local/lib/python3.10/dist-packages/torchvision/__init__.py”, line 5, in
from torchvision import datasets, io, models, ops, transforms, utils
File “/usr/local/lib/python3.10/dist-packages/torchvision/datasets/__init__.py”, line 1, in
from ._optical_flow import FlyingChairs, FlyingThings3D, HD1K, KittiFlow, Sintel
File “/usr/local/lib/python3.10/dist-packages/torchvision/datasets/_optical_flow.py”, line 11, in
from ..io.image import _read_png_16
File “/usr/local/lib/python3.10/dist-packages/torchvision/io/__init__.py”, line 8, in
from ._load_gpu_decoder import _HAS_GPU_VIDEO_DECODER
File “/usr/local/lib/python3.10/dist-packages/torchvision/io/_load_gpu_decoder.py”, line 1, in
from ..extension import _load_library
File “/usr/local/lib/python3.10/dist-packages/torchvision/extension.py”, line 107, in
_check_cuda_version()
File “/usr/local/lib/python3.10/dist-packages/torchvision/extension.py”, line 80, in _check_cuda_version
raise RuntimeError(
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.6. Please reinstall the torchvision that matches your PyTorch install.
~~ここまで~~
発生したのは、有料版Google colabで以下のコードを実行後です。
!COMMANDLINE_ARGS=”–share –gradio-debug –xformers –gradio-auth me:qwerty” REQS_FILE=”requirements.txt” python launch.py
ご教授宜しくお願いします。
コメントありがとうございます!
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versionsは、この記事内にあるコードを適用することで直ると思われます!
https://yuuyuublog.org/facebombmix/#toc3
試していただいても構いませんでしょうか?
PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.6. の部分が少々気になるので、もし直らなかったらまた教えてください!
お世話になります。
ご教授頂いた、リンク先の上の行の方で試していましたが、下の行の方
==
!pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu117
==
で試したら、起動できました!
ありがとうございました!!!
度々すみません。
Stable Diffusion は起動したのですが、プロンプトを入れてGenerateをクリックすると、以下のコードが吐き出されて画像が出ませんでした。
~~
Error completing request
Arguments: (‘task(nvfy1px0iy9luf7)’, Pronptの内容’ ‘, ‘NegativePronptの内容’, [], 20, 15, True, False, 1, 1, 7, -1.0, -1.0, 0, 0, 0, False, 1020, 710, True, 0.7, 2, ‘ESRGAN_4x’, 20, 0, 0, [], 0, False, False, ‘positive’, ‘comma’, 0, False, False, ”, 1, ”, [], 0, ”, [], 0, ”, [], True, False, False, False, 0) {}
Traceback (most recent call last):
File “/content/stable-diffusion-webui/modules/call_queue.py”, line 57, in f
res = list(func(*args, **kwargs))
File “/content/stable-diffusion-webui/modules/call_queue.py”, line 37, in f
res = func(*args, **kwargs)
File “/content/stable-diffusion-webui/modules/txt2img.py”, line 56, in txt2img
processed = process_images(p)
File “/content/stable-diffusion-webui/modules/processing.py”, line 515, in process_images
res = process_images_inner(p)
File “/content/stable-diffusion-webui/modules/processing.py”, line 669, in process_images_inner
samples_ddim = p.sample(conditioning=c, unconditional_conditioning=uc, seeds=seeds, subseeds=subseeds, subseed_strength=p.subseed_strength, prompts=prompts)
File “/content/stable-diffusion-webui/modules/processing.py”, line 887, in sample
samples = self.sampler.sample(self, x, conditioning, unconditional_conditioning, image_conditioning=self.txt2img_image_conditioning(x))
File “/content/stable-diffusion-webui/modules/sd_samplers_kdiffusion.py”, line 377, in sample
samples = self.launch_sampling(steps, lambda: self.func(self.model_wrap_cfg, x, extra_args={
File “/content/stable-diffusion-webui/modules/sd_samplers_kdiffusion.py”, line 251, in launch_sampling
return func()
File “/content/stable-diffusion-webui/modules/sd_samplers_kdiffusion.py”, line 377, in
samples = self.launch_sampling(steps, lambda: self.func(self.model_wrap_cfg, x, extra_args={
File “/usr/local/lib/python3.10/dist-packages/torch/autograd/grad_mode.py”, line 27, in decorate_context
return func(*args, **kwargs)
File “/content/stable-diffusion-webui/repositories/k-diffusion/k_diffusion/sampling.py”, line 594, in sample_dpmpp_2m
denoised = model(x, sigmas[i] * s_in, **extra_args)
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/modules/sd_samplers_kdiffusion.py”, line 154, in forward
x_out[a:b] = self.inner_model(x_in[a:b], sigma_in[a:b], cond=make_condition_dict(c_crossattn, image_cond_in[a:b]))
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/repositories/k-diffusion/k_diffusion/external.py”, line 112, in forward
eps = self.get_eps(input * c_in, self.sigma_to_t(sigma), **kwargs)
File “/content/stable-diffusion-webui/repositories/k-diffusion/k_diffusion/external.py”, line 138, in get_eps
return self.inner_model.apply_model(*args, **kwargs)
File “/content/stable-diffusion-webui/modules/sd_hijack_utils.py”, line 17, in
setattr(resolved_obj, func_path[-1], lambda *args, **kwargs: self(*args, **kwargs))
File “/content/stable-diffusion-webui/modules/sd_hijack_utils.py”, line 28, in __call__
return self.__orig_func(*args, **kwargs)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 858, in apply_model
x_recon = self.model(x_noisy, t, **cond)
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py”, line 1335, in forward
out = self.diffusion_model(x, t, context=cc)
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/diffusionmodules/openaimodel.py”, line 797, in forward
h = module(h, emb, context)
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/diffusionmodules/openaimodel.py”, line 84, in forward
x = layer(x, context)
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/attention.py”, line 334, in forward
x = block(x, context=context[i])
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/attention.py”, line 269, in forward
return checkpoint(self._forward, (x, context), self.parameters(), self.checkpoint)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/diffusionmodules/util.py”, line 121, in checkpoint
return CheckpointFunction.apply(func, len(inputs), *args)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/diffusionmodules/util.py”, line 136, in forward
output_tensors = ctx.run_function(*ctx.input_tensors)
File “/content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/attention.py”, line 272, in _forward
x = self.attn1(self.norm1(x), context=context if self.disable_self_attn else None) + x
File “/usr/local/lib/python3.10/dist-packages/torch/nn/modules/module.py”, line 1194, in _call_impl
return forward_call(*input, **kwargs)
File “/content/stable-diffusion-webui/modules/sd_hijack_optimizations.py”, line 342, in xformers_attention_forward
out = xformers.ops.memory_efficient_attention(q, k, v, attn_bias=None, op=get_xformers_flash_attention_op(q, k, v))
File “/usr/local/lib/python3.10/dist-packages/xformers/ops/fmha/__init__.py”, line 196, in memory_efficient_attention
return _memory_efficient_attention(
File “/usr/local/lib/python3.10/dist-packages/xformers/ops/fmha/__init__.py”, line 294, in _memory_efficient_attention
return _memory_efficient_attention_forward(
File “/usr/local/lib/python3.10/dist-packages/xformers/ops/fmha/__init__.py”, line 310, in _memory_efficient_attention_forward
op = _dispatch_fw(inp)
File “/usr/local/lib/python3.10/dist-packages/xformers/ops/fmha/dispatch.py”, line 98, in _dispatch_fw
return _run_priority_list(
File “/usr/local/lib/python3.10/dist-packages/xformers/ops/fmha/dispatch.py”, line 73, in _run_priority_list
raise NotImplementedError(msg)
NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs:
query : shape=(1, 11176, 8, 40) (torch.float16)
key : shape=(1, 11176, 8, 40) (torch.float16)
value : shape=(1, 11176, 8, 40) (torch.float16)
attn_bias :
p : 0.0
`cutlassF` is not supported because:
xFormers wasn’t build with CUDA support
`flshattF` is not supported because:
xFormers wasn’t build with CUDA support
`tritonflashattF` is not supported because:
xFormers wasn’t build with CUDA support
requires A100 GPU
`smallkF` is not supported because:
xFormers wasn’t build with CUDA support
dtype=torch.float16 (supported: {torch.float32})
max(query.shape[-1] != value.shape[-1]) > 32
unsupported embed per head: 40
~~
原因は何でしょう???
Set commandlineに –xformersを入れていると思うんですが、1度外して試していただいてもいいでしょうか!
もしそれで収まる場合は、Automatic1111のアプデが一段落するまで使うのを待った方がいいかも…
それにしてもこのエラーすごい長いですねw
こんばんは。
外してみたら、動きました!!
ありがとうございました!!!
エラーはびっくりしました(;^_^A
こんばんは。
起動し、画像は1回だけ生成できましたが、その後また違うエラーが出始めました。
一旦稼働を止めて、アップデートを待とうと思います。
色々ありがとうございました。
わかりやすい説明ありがとうございます。
Public URLを押したところ、
”No interface is running right now “
と表示され、何も起こりませんでした。全くの初心者なのでどういうことなのかわからず、困っています。どうすれば良いでしょうか。
コメントありがとうございます!
1度ランタイムを削除して、もう一度セルを最初から実行すると解決されませんでしょうか?
お世話になっております。
記事の内容と異なる質問になってしまうのですが…
モデルの件でお伺いしたいことがあります。
以前入手していたchillde_remix〜やfacebombなどのモデルデータを
使ってみたくて、任意で作成したStableDiffusion/Model←ここに格納したのですが
当然のように読み込まれなかったので、システムのstable-diffusion-webui/models/Stable-diffusion←ここに直接入れてみたところ
読み込み中に
Stable diffusion model failed to load, exiting
が出てしまいました…
これは、あかんことをやってしまったかんじですかね…
ご教授いただければ幸いです。
どうぞよろしくお願いいたします。
コメントありがとうございます!
「直接入れた」とはcolabの該当フォルダにドラッグアンドドロップしたということでしょうか?
記事のようにcpコマンドを使わないと読み込んでくれませんよ!
1度colabのランタイムを削除して、もう一度最初からやり直せば大丈夫です!
ご返信ありがとうございます!
無知にも程がありますよね…
直接入れて「いやいやこんなの無理、あとで消すからね!」
的なメッセージがでてました…
PC再起動後に確認したところ
ちゃんと処理してくれたようですが
今度はwebui起動中に
AssertionError: Torch is not able to use GPU; add –skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
というエラーが出てしまい
進めなくなってしまいました
試行錯誤してるのですが
下手にやったら取り返しのつかない事態に陥りかねないので
原因と対処法をご教授いただければ幸いです…
ちなみに「cpコマンド」という用語すらさっぱりなアホなのですが
pc側にダウンロードされてるモデルファイルを
マイドライブ内の任意で作成した[StableDiffusion]に入れてるのですが
それをどうすればシステム側の[stable-diffusion-webui]内の[models]に入るのかも
教えていただければ嬉しいです……
どうぞよろしくお願いいたします
Colabを起動するセルのCommandline agesに–skip-torch-cuda-test(最初のハイフンは2つです)を入れて起動すると、うまくいきませんでしょうか?
–xformersとか入力した場所です。
記事内にもある
【!cp /content/drive/MyDrive/StableDiffusion/Model/facebombmix_v1.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/】
の部分なんですけど、これはドライブ内の「StableDiffusion/Model/」に保存した「facebombmix_v1.safetensors」をColabの「/content/stable-diffusion-webui/models/Stable-diffusion/」にコピーするという意味になります!
なのでこのセルを実行するだけでcolabでモデルが使えるようになりますよ!
ちなみにcolabの場合、いくら失敗してもランタイムを削除して再起動すれば環境がリセットされます。なので結構気楽にやっても大丈夫ですよ!
ご返信ありがとうございます
それで試してみたんですが、ダメでした。
どこかのサイトには「webui.bat」にそちらの指示を入れる
との対処法が記載されてましたが、そもそも該当のファイル右クリックでプログラムを編集できず
再度インストールをしなおすことも考えていたのですが
新たなノートブックを作成してみたところ使えるようになりました…
PCの電源を落としたことでGPUの接続が切れた(よくわかってません)ということでしょうか??
マイドライブ内の任意のsdフォルダに入れるだけで反映されるのですね?!
セルを実行するというのは…起動時になんかしらの指示を与えないといけないのでしょうか?
本当に貴重なお時間をいただいてこのような愚問にお付き合いいただき
申し訳なさと感謝の気持ちでいっぱいです….
ありがとうございました。
何かと堅苦しく考えがちなので、気楽にやってみたいと思います。
「セルを実行する」というのは、コードが書かれた欄の左端にある▶をクリックする、ということです!
お使いのPCの電源を落とさずとも、ランタイム→ランタイムを接続して削除でcolabは再起動できますよ!
再起動すると割り当てられるGPUが変わるので、それで直ったんでしょうかね?おそらくですが!
ノートブックにこの記事の内容通りコードを入力したら、上から順に▶をクリックして最後に生成されるpublicurlを選択するとwebuiが使えるようになります!
コメント失礼します。質問があるのですが、webuiを起動し数分たつとエラーも出ずに勝手にランタイムの接続が切れてしまいます。 また別のpcではproに加入しているのにも関わらず朝起きると「GPU バックエンドに接続できません」とでることが多いです。「ランタイム接続解除して削除」も毎日欠かさずやっています。解決法はあるのでしょうか?
コメントありがとうございます!
無料版のcolabでwebuiを使用すると、すぐに接続が切れてしまうという話を聞いたことがあります。
おそらくは下記の記事で紹介しているcolab無料版の制限に関連しているのではないでしょうか。
https://yuuyuublog.org/sd_colabend/
proの方には私が加入していないため、詳しくはわからないですね…
pcがスリープにならないような設定はされていますでしょうか?proでもpcがスリープ状態になって2時間くらいするとランタイムが切れると聞いたことがあります。
返信ありがとうございます。もう1つのアカウントもproに加入して様子を見てみます!
色々とありがとうございます。
まだよくわからないままに使えてはいるのですが、
複数のモデルデータをマイドライブのModelフォルダに格納しているのに
そのマイドライブのModelフォルダ内に確認できない「chilloutmix-ni」以外のモデルが選択肢に出てこないという状況は
スタート時に使用している以下のコードに別途追記する必要があるんですよね?
————–
!pip install -q torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 torchtext==0.15.1 torchdata==0.6.0 –extra-index-url https://download.pytorch.org/whl/cu118 -U
!pip install -q xformers==0.0.18 triton==2.0.0 -U
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui
!wget ~civitai~/api/download/models/11745 -O /content/stable-diffusion-webui/models/Stable-diffusion/Chilloutmix-Ni-pruned-fp32-fix.safetensors
!python launch.py –share –xformers –enable-insecure-extension-access
————–
chilldmixも含め、複数選択可能状態にしたいのですが
新たなコードやコードを入れる場所など教えていただけたら嬉しいです
どうぞよろしくお願いいたします。
こんにちは!
一体このコードは…?この記事で紹介しているmaintained by akaibuと全然違いますね。
全く違うノートブックを使われていらっしゃるんですか?
ご返信ありがとうございます。
こちらは、youtubeの動画を参考にしたんですが
その際紹介されてた某サイトのコードを参考にして接続してました
最近は警告が出るようになったので、そのサイトの方でも新しいコードも公開されてるみたいです
(サイト名記載しても差し支えなければお知らせします)
—————
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui
!wget ~civitai~/api/download/models/11745 -O /content/stable-diffusion-webui/models/Stable-diffusion/Chilloutmix-Ni-pruned-fp32-fix.safetensors
!python launch.py –share –xformers –enable-insecure-extension-access
—————
しかし、悠さんが紹介されてるコードを使用しないと
他のモデル使えないぽいですかね??
どうぞよろしくおねがいいたします。
なるほど私の記事の奴じゃなかったんですねw
納得いたしました。
そのコードはcivitaiのサイトから直接モデルをDLすることでWebUIに読み込ませています。
私の紹介しているものはGoogleDriveをマウントすることで、drive内に保存してあるモデルを読み込んでいます。
ですのでゾディさんが使われているものだと、drive内に保存しても反映されません。
ただそのコードでもwget以下の部分を
!wget (DLしたいcivitaiのモデルページのDLボタンのリンク) -O /content/stable-diffusion-webui/models/Stable-diffusion/(モデルの名前)
のように変更すれば別のモデルを反映できる気がします。
早速のご返信ありがとうございます。
もうsdのHow toに関しては、悠さんのサイトだけを見ることにします。
接続方法は一つだけだと思い込んでいたふしがありますが、
「もっと気楽に」と言われるように、様々な方法があるのですね….
(歳を重ねて頭が固くなるということはこういうことか)
反映されない理由がわかって少しほっとしました。ありがとうございます。
悠さんのコードを参考にchilloutmix以外のモデルを使ってみよう!と思ったら
数日前にproに加入したのに与えられたコンピューティングユニットを使い切ってしまいました…
LoRAのこと、まだよくわかってないので、悠さんの記事を参考に勉強したいと思います。
参考にしていただいてとてもありがたいです!
ただStable Diffusionの更新頻度やAI系技術の進展の速さは凄まじいものがあります。
個人的に大好きなのでできる限りアップデートしていこうと思っていますが、私の記事の情報が古くなっていたり、もっと効率のいい方法が見つかっていく可能性もあるかもしれませんので、ゾディさんの参考文献の1つ程度で考えていただいた方が良いかと存じます!
とりあえずこのページ内のコードを全部反映すれば、Driveに保存したモデルを読み込めるようになると思うので、ぜひ試してみてくださいね!
コンピューティングユニットの減りの速さきついですね…
突然のコメント失礼します。
Stable Diffusionを使っていたところエラーが出たのでランタイムの接続を解除し再起動したところRunning on local URL:より下がいつまで待っても出てこなく、起動できなくなってしまいました。なにか解決法などはありますでしょうか。
コメントありがとうございます!
エラーなどが特に表示されていないとなると、もう一度ランタイムを削除してみて接続しなおしてみるのがおすすめです。
最近割り当てられるgpuによっては何故か起動出来ないことがあるという事例を聞きます。
ちなみにcolabは有料版をお使いでしょうか?
返信ありがとうございます。
colabは有料版です。
ランタイムの削除も何回かやっているのですが出てこないですね…
なんどもコメントすみません。
どうやらcolabやPaperSpaceなどでStable Diffusionが起動できなくなっているそうです。
仕様なのかサーバーダウンなのかはわかりませんが、しばらく待つしかないそうです。
お時間おかけしてすみませんでした。
こんばんは、以前お世話になりました。
久しぶりにColabでStable Diffusion を使おうとやってみたところ、最後の実行コードで以下が吐き出されて止まりました。
~~
Python 3.10.11 (main, Apr 5 2023, 14:15:10) [GCC 9.4.0]
Commit hash: 5ab7f213bec2f816f9c5644becb32eb72c8ffb89
Installing xformers
Installing requirements
Launching Web UI with arguments: –share –gradio-debug –xformers –gradio-auth GRADIO_AUTH –skip-version-check me:qwerty
2023-05-11 09:40:17.248356: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 AVX512F FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
2023-05-11 09:40:19.373726: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT
WARNING[XFORMERS]: xFormers can’t load C++/CUDA extensions. xFormers was built for:
PyTorch 2.0.0+cu118 with CUDA 1108 (you have 1.13.1+cu117)
Python 3.10.10 (you have 3.10.11)
Please reinstall xformers (see https://github.com/facebookresearch/xformers#installing-xformers)
Memory-efficient attention, SwiGLU, sparse and more won’t be available.
Set XFORMERS_MORE_DETAILS=1 for more details
usage: launch.py
[-h]
[–update-all-extensions]
[–skip-python-version-check]
[–skip-torch-cuda-test]
[–reinstall-xformers]
[–reinstall-torch]
[–update-check]
[–tests TESTS]
[–no-tests]
[–skip-install]
[–data-dir DATA_DIR]
[–config CONFIG]
[–ckpt CKPT]
[–ckpt-dir CKPT_DIR]
[–vae-dir VAE_DIR]
[–gfpgan-dir GFPGAN_DIR]
[–gfpgan-model GFPGAN_MODEL]
[–no-half]
[–no-half-vae]
[–no-progressbar-hiding]
[–max-batch-count MAX_BATCH_COUNT]
[–embeddings-dir EMBEDDINGS_DIR]
[–textual-inversion-templates-dir TEXTUAL_INVERSION_TEMPLATES_DIR]
[–hypernetwork-dir HYPERNETWORK_DIR]
[–localizations-dir LOCALIZATIONS_DIR]
[–allow-code]
[–medvram]
[–lowvram]
[–lowram]
[–always-batch-cond-uncond]
[–unload-gfpgan]
[–precision {full,autocast}]
[–upcast-sampling]
[–share]
[–ngrok NGROK]
[–ngrok-region NGROK_REGION]
[–enable-insecure-extension-access]
[–codeformer-models-path CODEFORMER_MODELS_PATH]
[–gfpgan-models-path GFPGAN_MODELS_PATH]
[–esrgan-models-path ESRGAN_MODELS_PATH]
[–bsrgan-models-path BSRGAN_MODELS_PATH]
[–realesrgan-models-path REALESRGAN_MODELS_PATH]
[–clip-models-path CLIP_MODELS_PATH]
[–xformers]
[–force-enable-xformers]
[–xformers-flash-attention]
[–deepdanbooru]
[–opt-split-attention]
[–opt-sub-quad-attention]
[–sub-quad-q-chunk-size SUB_QUAD_Q_CHUNK_SIZE]
[–sub-quad-kv-chunk-size SUB_QUAD_KV_CHUNK_SIZE]
[–sub-quad-chunk-threshold SUB_QUAD_CHUNK_THRESHOLD]
[–opt-split-attention-invokeai]
[–opt-split-attention-v1]
[–opt-sdp-attention]
[–opt-sdp-no-mem-attention]
[–disable-opt-split-attention]
[–disable-nan-check]
[–use-cpu USE_CPU [USE_CPU …]]
[–listen]
[–port PORT]
[–show-negative-prompt]
[–ui-config-file UI_CONFIG_FILE]
[–hide-ui-dir-config]
[–freeze-settings]
[–ui-settings-file UI_SETTINGS_FILE]
[–gradio-debug]
[–gradio-auth GRADIO_AUTH]
[–gradio-auth-path GRADIO_AUTH_PATH]
[–gradio-img2img-tool GRADIO_IMG2IMG_TOOL]
[–gradio-inpaint-tool GRADIO_INPAINT_TOOL]
[–opt-channelslast]
[–styles-file STYLES_FILE]
[–autolaunch]
[–theme THEME]
[–use-textbox-seed]
[–disable-console-progressbars]
[–enable-console-prompts]
[–vae-path VAE_PATH]
[–disable-safe-unpickle]
[–api]
[–api-auth API_AUTH]
[–api-log]
[–nowebui]
[–ui-debug-mode]
[–device-id DEVICE_ID]
[–administrator]
[–cors-allow-origins CORS_ALLOW_ORIGINS]
[–cors-allow-origins-regex CORS_ALLOW_ORIGINS_REGEX]
[–tls-keyfile TLS_KEYFILE]
[–tls-certfile TLS_CERTFILE]
[–disable-tls-verify]
[–server-name SERVER_NAME]
[–gradio-queue]
[–no-gradio-queue]
[–skip-version-check]
[–no-hashing]
[–no-download-sd-model]
[–ldsr-models-path LDSR_MODELS_PATH]
[–lora-dir LORA_DIR]
[–scunet-models-path SCUNET_MODELS_PATH]
[–swinir-models-path SWINIR_MODELS_PATH]
launch.py: error: unrecognized arguments: me:qwerty
~~
これは、仕様変更になったからでしょうか?
宜しくご教授くださいませ。
コメントありがとうございます!
この記事で紹介している
!pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 torchtext==0.14.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu116
のコマンドを実行されていますか?
もしその場合は、一度ランタイムを削除したあと、このセル「だけ」を実行せずにもう一度WebUIを起動してみていただいてもいいでしょうか?
それでもダメな時は、COMMANDLINE_AGES=の中から、–xformersを削除してみてください。
最新のアップデートでAUTOMATIC1111の初期torchバージョンが2.00に更新されたことに起因していそうですね…
こんにちは!
!pip~ のコマンドを実行しないでWebUIを起動してみましたら、動いてくれました!
解決しました。
ありがとうございました!
コメント失礼します!
初心者なのでわからないことだらけなのですが
cp: cannot stat ‘/content/drive/MyDrive/StableDiffusion/Model/facebombmix_v1.safetensors’: No such file or directory
cp: cannot stat ‘/content/drive/MyDrive/StableDiffusion/VAE/kl-f8-anime2.ckpt’: No such file or directory
FacebombやVAEをグーグルドライブにいれて記事のようにやってみたのですがこのように出てしまいます
おそらく合ってなさそうですし実際の画像生成画面の左上は
v1-5 pruned-emaonly.safetensors[6ce0161689]
と出ています
これで合っているのでしょうか??
触れて数日なのでほんとに右も左もわからない感じです・・・!
コメントありがとうございます!
多分モデルをコピーするセル内のパスが間違っていると思います!
下記のコードの欄を全て貼っていただいてもいいでしょうか?
!cp /content/drive/MyDrive/StableDiffusion/Model/facebombmix_v1.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/
!cp /content/drive/MyDrive/StableDiffusion/VAE/kl-f8-anime2.ckpt /content/stable-diffusion-webui/models/VAE
ご報告遅れて申し訳ありません!
初歩的なミスでドライブ上のファイルの名前を同じにしていないがために
このファイルはないよって言われている感じでした!
ファイル名をコードと同じにしたらできました!
現在Facebombmixのダウンロードしたファイルがそのままではないため変更する必要があるかもしれません!
ですが実際画像生成したところそのままちゃんと適応され使えましたのでご参考になればとご報告させていただきます!ありがとうございました!
ご質問させていただきたい点があります。
!cp (ドライブ内に保存したファイルのパス)(モデルを格納するフォルダのパス)
上記の部分で
https://gyazo.com/f116b643a03c72f12a20cddf01515ff9
実行した際に上手く読み込めてないようなのですが、
解決策などご教授いただけないでしょうか。
コメントありがとうございます!
コマンドは間違えていないように見えますね…
一応確認なんですが、Drive内のファイル(モデルとVAE)は/StableDiffusion/Model/、/StableDiffusion/VAEという名前のフォルダを作って、その中に入れていらっしゃいますよね?
/StableDiffusion/Model/はあくまで一例なので、別のフォルダ名の中に配置した場合は読み込めません。
また、Google Driveはマウントされていますよね?マウント前にそのコードを実行してもエラーになります。
ご返答ありがとうございます。
モデルのバージョンが違ったようで無事解決いたしました。
別件にはなるのですが、コンピューティングユニット数はどれくらいの期間で回復しますか?
一応月額1000円の方で課金しております。
おお!よかったです!
有料版Colabのコンピューティングユニット数は残念ながら回復しないと思います…
なので月額1000円プランだと数十時間で使い切ってしまうはずです!
なるほどです!
数十時間使うと来月まで追加購入しない限りは使えない感じでしょうか?
残念ながらその通りです。使い切ってしまうと追加購入する必要があります!
お世話になります。
このブログをみてAIイラストの生成が新しい趣味になり投稿するまでになりました。
sd-1click-colabのやり方で慣れてきたので
自由度の高い本記事のやり方を導入し
先日ようやく扱えるようになりました。
他のコメントでもありますが
指定したモデルがWEB UIのcheckpoint読み込まれない事に悩んでいました。
問題点はGoogle driveのモデルを保管するフォルダ名とコラボレーターで指定する保管するフォルダ名が不一致していたからでした。
Google drive フォルダ名
model
コラボレーターで指定するフォルダ名
Model
大文字小文字の違いが原因でした。
同じような不具合で悩んでいる人の参考になれば幸いです。
コメントありがとうございます!嬉しいお言葉、大変励みになります!!(*’ω’*)
大文字小文字も区別しないといけないというのが少し面倒なポイントですよね~。
私も何回もパスの間違いで読み込まれなかったことを経験したんですが、気づけない時は本当に気づけないです!
maintained by akaibuのノートブックだと好きなモデルを使えて楽しいので、colab版では本当におすすめです!
投稿頑張ってくださいね!
いつもお世話になってます。
「RuntimeError: Detected that PyTorch and torchvision」で検索をかけてこちらの記事がヒットしたので質問させてください。
________________________________________________________________________________________________
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
________________________________________________________________________________________________
こちらで対処法を確認したのですが、昨年の情報ということもあり、恐らく全てがバージョンアップしてると思うのですが
自分の現状は
_________________________
import torch
import torchvision
print(torch.__version__)
print(torchvision.__version__)
2.0.1+cu118
0.15.2+cu118
_________________________
上記のように出たのですが、こちらで入手した対処法の
________________________________________________________________________________________________
!pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 torchtext==0.14.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu116
________________________________________________________________________________________________
こちらを入れて問題ないのでしょうか?
あえてバージョンを下げてエラーを回避する方法なのだとしたら
(よくわからないんですけど)最新のCUDAをインストールするべきなのでしょか?
この質問自体がすでに過去の遺物のようにも感じてきました….
*****
今ちょっと試してみてるんですけど、最新をアンインストールしてるぽいですね…(不安)
やっぱりだめでした。
よろしくお願いします。
こんばんは!
下記のエラーは去年のものではなく、1~2か月前によく発生したやつです!
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
とはいえ現在はtorchのバージョンが更新されたため、このエラーは起きないはずなんですよね~。
ゾディさんは、普通にwebUIを起動しようとすると上記のエラーが起こる感じでしょうか?
早速のご返信ありがとうございます。
記事内に「2022年4月時点」と記載されていたので、てっきり去年のエラーかと思い込んでしまいました。
ご紹介いただいてるコードの上ではダメだったので、PCを再起動し、下のコードを入れたところ
エラーを回避することができました。 助かりました…. ありがとうございます。
ちなみに、下のコードですが、頭のエクスクラメーション「!」が抜けておりましたので、念のためご報告です。
この度もお手数をおかけしてしまいすみませんでした。
またよろしくお願いいたします!
「2023年4月」の間違いでした…申し訳ないです…
訂正しておきました!
pipの頭に付ける!も追加させていただきました。ご報告いただき誠にありがとうございます!
お世話になっております。
こちらの記事を参考にStableDiffusionを使い始めました。
非常にわかりやすく感謝しております。
さて、昨日までは普通に使えたのですが、以下のようなエラーが出ました。
ご指導いただけますでしょうか。
どうぞ宜しくお願い致します。
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
コメントありがとうございます!
ばばみなとさんは、この記事内で紹介している
!pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 torchtext==0.14.1 torchdata==0.5.1 –extra-index-url https://download.pytorch.org/whl/cu116
上のコマンドを実行されていますか?
もし実行されている場合は、colabを再起動して、このセルのみスキップして(このセルを実行せずに)もう一度試してみていただいてもよろしいでしょうか?
返信ありがとうございます。
!pip install…については、自分の環境では出ないエラーだったため、完全にスルーしていました。
結果からもうしますと、その記事で紹介している、
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117…
の方のコマンドで実行できるようになりました。
お騒がせいたしました。
今後とも参考させていただきます。
ありがとうございました。
あと、COMMANDLINE_AGES=””に –xformersを入れると絵が生成できなかった旨補足させていただきます。
悠さんいつもおせわになっております!
一点教えてください。
akaibuでいつも楽しんでいたのですが、
「ファイルのブラウジングを有効にするには、ランタイムに接続してください」
というメッセージがフォルダが表示される左側部分に出て、再度ドライブを繋ぎ直し、最初から全部インストールをしなきゃいけない状況になります(涙)
Googleアカウントの容量オーバーかな?と思い新しいアカウントで試してもすぐに同様のことが起きてしまいました。。
こちらもし原因が分かりましたら教えていただけますと幸いです!
コメントありがとうございます!
それもまた初めて聞くタイプのメッセージですね~。
これってwebui実行中に表示されるんでしょうか?それとも起動時ですかね?
下の記事によるとメッセが出てもそのまま少し待てば動作するようになりそうですが、どうでしょうか?
https://qiita.com/sowd0726/items/13c53505cf94f6ff67cf
ご説明ありがとうございます!
まさにリンク先のメッセージです!
起動時だったら良いのですが実行中にこのメッセージが出て、フォルダが初期化され再度ドライブのマウント、ファイルの再インストールからになってしまうのです(涙)
理由はわかりませんが15分おきくらいにGoogleのドライブが初期化されるようなイメージです。。
他には起きていない症状であれば私の環境に原因がありそうですね
(T ^ T)
可能性は低そうですが、画像生成中にpcを放置してスリープ状態になっているとかないですかね?15分でpcがスリープになるような設定になっているとか。
一定時間pcを触らないと接続が切れてしまったと思います。
他にもなにか見つけたら追記します!
何回もなるので、それを危惧して画面上でマウスをずっと動かしててもなるんです
(´°̥̥̥̥̥̥̥̥ω°̥̥̥̥̥̥̥̥`)
ありがとうございます!
ブラウザのキャッシュとcookieを削除すると改善される可能性があるという情報を見かけたのですが、いかがでしょうか?
すみません、それとなのですがColabは無料版と有料版のどちらをお使いですか?無料版だとすぐに接続が切れてしまう可能性があります。
https://yuuyuublog.org/sd_colabend/
ありがとうございます!
無料版でした!
有料版にしたら動きました!
GPUの性能も高く1枚5秒くらいでできるんので有料版はすごいですね!
悠様初めまして。
お世話になっております。
こちらの記事を参考にさせて頂き、生成場面まで辿り着くことができました。
ありがとうございます。
ただGenerateを押すと以下のようなエラーが出てしまいます。
対処方法をお教えいただけますでしょうか。
どうぞ宜しくお願い致します。
NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs: query : shape=(2, 3200, 8, 40) (torch.float16) key : shape=(2, 3200, 8, 40) (torch.float16) value : shape=(2, 3200, 8, 40) (torch.float16) attn_bias : p : 0.0 `cutlassF` is not supported because: xFormers wasn’t build with CUDA support `flshattF` is not supported because: xFormers wasn’t build with CUDA support `tritonflashattF` is not supported because: xFormers wasn’t build with CUDA support requires A100 GPU `smallkF` is not supported because: xFormers wasn’t build with CUDA support dtype=torch.float16 (supported: {torch.float32}) max(query.shape[-1] != value.shape[-1]) > 32 unsupported embed per head: 40
Time taken: 0.06sTorch active/reserved: 2104/2126 MiB, Sys VRAM: 3349/15102 MiB (22.18%)
コメントありがとうございます!
おそらくCOMMANDLINE_AGESからxformersを削除すれば動くようになると思います!
Colabではたまに使えないことがあるようなんですよね…
お世話になります。
早速のご対応ありがとうございます。
先程、変更して何回か試してみたのですが、うまくいきませんでした。
こちらの不具合もあるかもなので、また改めて試してみます。
ありがとうございました。
はじめまして。
こちらの記事を参考にさせて頂き、設定を進めているのですが、
「!COMMANDLINE_ARGS=”–share –gradio-debug –xformers –gradio-auth me:qwerty” REQS_FILE=”requirements.txt” python launch.py」
こちらを実行すると
「Model loaded in 35.7s (calculate hash: 16.5s, load weights from disk: 0.3s, create model: 2.5s, apply weights to model: 6.4s, apply half(): 1.6s, load VAE: 7.7s, move model to device: 0.6s).」
のところで止まって、「前回の実行は失敗しました」となってしまいます。
こちら対処法を教えていただけますでしょうか。
よろしくお願いします。
コメントありがとうございます!
特にエラーは出ていない感じですかね?
この場合は、一度ランタイムを削除してcolabを再起動する、もしくはCOMMANDLINE_ARGSから–xformersを削除すると起動する場合があります!
まずはこちらを試してみていただいてもいいでしょうか?
ご返信ありがとうございます。
特にエラーは出ていないようです。
再起動して実行、-–xformers削除でも同様の症状でした。
最後の行の
「Model loaded in 32.8s (calculate hash: 14.9s, load weights from disk: 0.3s, create model: 2.5s, apply weights to model: 5.4s, apply half(): 1.3s, load VAE: 7.7s, move model to device: 0.6s).」
が表示されてから10分程動かず、その後「前回の実行は失敗しました」となってしまいます。
自分でも調べて何か試してみます。
度々失礼いたします。今日StableDiffusionを起動したところ、このようなエラーが出てしまいました。
何か解決策などはありますでしょうか?
Python 3.10.12 (main, Jun 7 2023, 12:45:35) [GCC 9.4.0]
Version: v1.4.0
Commit hash: 394ffa7b0a7fff3ec484bcd084e673a8b301ccc8
Installing requirements
Launching Web UI with arguments: –share –gradio-debug –gradio-auth me:qwerty
2023-06-27 07:20:38.900104: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 AVX512F FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
2023-06-27 07:20:39.866896: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT
╭───────────────────── Traceback (most recent call last) ──────────────────────╮
│ /content/stable-diffusion-webui/launch.py:38 in │
│ │
│ 35 │
│ 36 │
│ 37 if __name__ == “__main__”: │
│ ❱ 38 │ main() │
│ 39 │
│ │
│ /content/stable-diffusion-webui/launch.py:34 in main │
│ │
│ 31 │ if args.test_server: │
│ 32 │ │ configure_for_tests() │
│ 33 │ │
│ ❱ 34 │ start() │
│ 35 │
│ 36 │
│ 37 if __name__ == “__main__”: │
│ │
│ /content/stable-diffusion-webui/modules/launch_utils.py:340 in start │
│ │
│ 337 │
│ 338 def start(): │
│ 339 │ print(f”Launching {‘API server’ if ‘–nowebui’ in sys.argv else ‘W │
│ ❱ 340 │ import webui │
│ 341 │ if ‘–nowebui’ in sys.argv: │
│ 342 │ │ webui.api_only() │
│ 343 │ else: │
│ │
│ /content/stable-diffusion-webui/webui.py:42 in │
│ │
│ 39 startup_timer.record(“import ldm”) │
│ 40 │
│ 41 from modules import extra_networks │
│ ❱ 42 from modules.call_queue import wrap_gradio_gpu_call, wrap_queued_call, │
│ 43 │
│ 44 # Truncate version number of nightly/local build of PyTorch to not cau │
│ 45 if “.dev” in torch.__version__ or “+git” in torch.__version__: │
│ │
│ /content/stable-diffusion-webui/modules/call_queue.py:5 in │
│ │
│ 2 import threading │
│ 3 import time │
│ 4 │
│ ❱ 5 from modules import shared, progress, errors │
│ 6 │
│ 7 queue_lock = threading.Lock() │
│ 8 │
│ │
│ /content/stable-diffusion-webui/modules/shared.py:18 in │
│ │
│ 15 import modules.devices as devices │
│ 16 from modules import localization, script_loading, errors, ui_component │
│ 17 from modules.paths_internal import models_path, script_path, data_path │
│ ❱ 18 from ldm.models.diffusion.ddpm import LatentDiffusion │
│ 19 from typing import Optional │
│ 20 │
│ 21 demo = None │
│ │
│ /content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/l │
│ dm/models/diffusion/ddpm.py:20 in │
│ │
│ 17 import itertools │
│ 18 from tqdm import tqdm │
│ 19 from torchvision.utils import make_grid │
│ ❱ 20 from pytorch_lightning.utilities.distributed import rank_zero_only │
│ 21 from omegaconf import ListConfig │
│ 22 │
│ 23 from ldm.util import log_txt_as_img, exists, default, ismap, isimage, │
╰──────────────────────────────────────────────────────────────────────────────╯
ModuleNotFoundError: No module named ‘pytorch_lightning.utilities.distributed’
コメントありがとうございます!
本日6月27日にwebuiが1.4.0に更新されたことで、colab版では不具合が出て起動出来ない方がいらっしゃるようです。
少し様子を見るか、v1.3.2にダウングレードするかで対処する必要があるかもしれません。
https://yuuyuublog.org/automatic1111downgrade/
追記
下記の方法で直った方もいらっしゃるようです
https://github.com/CompVis/stable-diffusion/issues/714
返信ありがとうございます。ダウングレード試してみます!
私はTheLastBenを使用していますが1.4.0で動作が不安定ですね
Loraの中身を別に保存し、新たなLoraフォルダの中に中身を移したら多少安定しましたが、それでも止まる時は止まるので
その際再起動ではなく一度閉じて再びcolabを起動すると比較的復帰が早く感じます
エラー内容も下記のように出ますがloraを入れなければ出ないので何か仕様が変わったのかもしれないです
初心者なので予測でしかないのですが、私は中国語のloraや70種のloraもあるためそのせいかもしれません
( web.pyの42行目や16行目は確認してもよくわかりませんでした)
Traceback (most recent call last):
File “/content/gdrive/MyDrive/sd/stable-diffusion-webui/webui.py”, line 42, in
from modules.call_queue import wrap_gradio_gpu_call, wrap_queued_call, queue_lock # noqa: F401
File “/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py”, line 5, in
from modules import shared, progress, errors
File “/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/shared.py”, line 16, in
from modules import localization, script_loading, errors, ui_components, shared_items, cmd_args
File “/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/ui_components.py”, line 9, in
gr.Dropdown.get_expected_parent = FormComponent.get_expected_parent
AttributeError: module ‘gradio’ has no attribute ‘Dropdown’
同じく起動しなくて困っている方はstable diffusionを立ち上げてからloraを読み込ませればうまく起動すると思います
いつも参考にさせていただいてます。
一連のエラーですが、ついにダウングレードでも下記エラーが出て起動できません。
また
>追記
>下記の方法で直った方もいらっしゃるようです
>https://github.com/CompVis/stable-diffusion/issues/714
これも試してみたいのですが、力不足で意味が分からず・・・
教えていただけると幸いです。
╭───────────────────── Traceback (most recent call last) ──────────────────────╮
│ /content/stable-diffusion-webui/launch.py:381 in │
│ │
│ 378 │
│ 379 if __name__ == “__main__”: │
│ 380 │ prepare_environment() │
│ ❱ 381 │ start() │
│ 382 │
│ │
│ /content/stable-diffusion-webui/launch.py:372 in start │
│ │
│ 369 │
│ 370 def start(): │
│ 371 │ print(f”Launching {‘API server’ if ‘–nowebui’ in sys.argv else ‘W │
│ ❱ 372 │ import webui │
│ 373 │ if ‘–nowebui’ in sys.argv: │
│ 374 │ │ webui.api_only() │
│ 375 │ else: │
│ │
│ /content/stable-diffusion-webui/webui.py:28 in │
│ │
│ 25 import ldm.modules.encoders.modules │
│ 26 startup_timer.record(“import ldm”) │
│ 27 │
│ ❱ 28 from modules import extra_networks, ui_extra_networks_checkpoints │
│ 29 from modules import extra_networks_hypernet, ui_extra_networks_hyperne │
│ 30 from modules.call_queue import wrap_queued_call, queue_lock, wrap_grad │
│ 31 │
│ │
│ /content/stable-diffusion-webui/modules/ui_extra_networks_checkpoints.py:5 │
│ in │
│ │
│ 2 import json │
│ 3 import os │
│ 4 │
│ ❱ 5 from modules import shared, ui_extra_networks, sd_models │
│ 6 │
│ 7 │
│ 8 class ExtraNetworksPageCheckpoints(ui_extra_networks.ExtraNetworksPage) │
│ │
│ /content/stable-diffusion-webui/modules/sd_models.py:17 in │
│ │
│ 14 │
│ 15 from modules import paths, shared, modelloader, devices, script_callba │
│ 16 from modules.paths import models_path │
│ ❱ 17 from modules.sd_hijack_inpainting import do_inpainting_hijack │
│ 18 from modules.timer import Timer │
│ 19 │
│ 20 model_dir = “Stable-diffusion” │
│ │
│ /content/stable-diffusion-webui/modules/sd_hijack_inpainting.py:7 in │
│ │
│ │
│ 4 from einops import repeat │
│ 5 from omegaconf import ListConfig │
│ 6 │
│ ❱ 7 import ldm.models.diffusion.ddpm │
│ 8 import ldm.models.diffusion.ddim │
│ 9 import ldm.models.diffusion.plms │
│ 10 │
│ │
│ /content/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/l │
│ dm/models/diffusion/ddpm.py:12 in │
│ │
│ 9 import torch │
│ 10 import torch.nn as nn │
│ 11 import numpy as np │
│ ❱ 12 import pytorch_lightning as pl │
│ 13 from torch.optim.lr_scheduler import LambdaLR │
│ 14 from einops import rearrange, repeat │
│ 15 from contextlib import contextmanager, nullcontext │
│ │
│ /usr/local/lib/python3.10/dist-packages/pytorch_lightning/__init__.py:34 in │
│ │
│ │
│ 31 │ _logger.addHandler(logging.StreamHandler()) │
│ 32 │ _logger.propagate = False │
│ 33 │
│ ❱ 34 from pytorch_lightning.callbacks import Callback # noqa: E402 │
│ 35 from pytorch_lightning.core import LightningDataModule, LightningModule │
│ 36 from pytorch_lightning.trainer import Trainer # noqa: E402 │
│ 37 from pytorch_lightning.utilities.seed import seed_everything # noqa: E │
│ │
│ /usr/local/lib/python3.10/dist-packages/pytorch_lightning/callbacks/__init__ │
│ .py:25 in │
│ │
│ 22 from pytorch_lightning.callbacks.model_checkpoint import ModelCheckpoin │
│ 23 from pytorch_lightning.callbacks.model_summary import ModelSummary │
│ 24 from pytorch_lightning.callbacks.prediction_writer import BasePredictio │
│ ❱ 25 from pytorch_lightning.callbacks.progress import ProgressBarBase, RichP │
│ 26 from pytorch_lightning.callbacks.pruning import ModelPruning │
│ 27 from pytorch_lightning.callbacks.quantization import QuantizationAwareT │
│ 28 from pytorch_lightning.callbacks.rich_model_summary import RichModelSum │
│ │
│ /usr/local/lib/python3.10/dist-packages/pytorch_lightning/callbacks/progress │
│ /__init__.py:22 in │
│ │
│ 19 │
│ 20 “”” │
│ 21 from pytorch_lightning.callbacks.progress.base import ProgressBarBase │
│ ❱ 22 from pytorch_lightning.callbacks.progress.rich_progress import RichProg │
│ 23 from pytorch_lightning.callbacks.progress.tqdm_progress import TQDMProg │
│ 24 │
│ │
│ /usr/local/lib/python3.10/dist-packages/pytorch_lightning/callbacks/progress │
│ /rich_progress.py:20 in │
│ │
│ 17 from datetime import timedelta │
│ 18 from typing import Any, Dict, Optional, Union │
│ 19 │
│ ❱ 20 from torchmetrics.utilities.imports import _compare_version │
│ 21 │
│ 22 import pytorch_lightning as pl │
│ 23 from pytorch_lightning.callbacks.progress.base import ProgressBarBase │
╰──────────────────────────────────────────────────────────────────────────────╯
ImportError: cannot import name ‘_compare_version’ from
‘torchmetrics.utilities.imports’
(/usr/local/lib/python3.10/dist-packages/torchmetrics/utilities/imports.py)
YouTubeではColabをコードなしで起動してる人がいますが,Googleで調べるとコードを使ってる人がほとんどです。なぜYouTubeの方では簡単にできてるのでしょうか?
コメントありがとうございます!
既にUIが完成されたノートブックを使っているのではないでしょうか?
「~初心者向け」みたいな
流石にセルは実行されてますよね?