【2023年】「Stable Diffusion WebUI」をローカル環境に構築するやり方!低スぺックPC(1660Ti)でもOK!

こんにちは!悠です!

 

以前までGoogle Colabratoryを使った、誰でもできるAIコスプレイヤーの生成方法をご紹介してきました。

【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】
「Stable Diffusion」を使って、話題のAIコスプレイヤー風の画像を作成する方法についてまとめた記事です。実行にはGoogle Colaboratoryを使用するため、PCのスペックに関係なく試すことができますよ!

 

しかし無料版のGoogle Colabratoryには一日の使用回数に制限があるため、無限に遊ぶことはできません。

そこで今回は「Stable Diffusion WebUI」をローカル環境に構築する方法について、できる限り詳しくご紹介していきます。

なお、私のPCのGPUはGTX1660Tiなんですが、こういった世代遅れのGPUでも問題なく起動できます。

スポンサーリンク
スポンサーリンク

Stable Diffusion WebUIとは?

「Stable Diffusion WebUI」とは、ブラウザ上でAIによるイラスト生成を行うことができるツールのことを指します。

下記のようなおなじみのUIですね。私の以前の記事をご覧になった方ならもう1度は使っていることでしょう。

 

このツールを導入せずに「Stable Diffusion」を使おうとすると、コマンドプロンプトで操作することになり難易度が爆上がりします。

コマンドプロンプトであれこれやるのは、どう考えても初心者向きではないです!

 

WebUIをローカル環境に構築するやり方

この方法は下記の2つのサイトを参考にさせていただきました。

【ローカル実装】Stable Diffusion WebUIの導入~使い方【AUTOMATIC1111】
WebUI(AUTOMATIC1111)のメリットは機能がたくさんある事。Control NetやLoRAなどの追加学習といった最新機能が試せます。また、拡張機能で日本語化できます。こちらの導入~使い方、黒い画面が出る場合のエラー対策などを解説。
ローカル版導入 - としあきdiffusion Wiki*

 

私も上記のサイトを参考にしながら作業したのですが、どうしても上手くいかない部分があったので、その点についてはこれ以降の記事の内容に盛り込んでいきます。

 

GPUの確認

それでは早速、「Stable Diffusion WebUI」をローカル環境で構築する方法についてまとめていきます。

なお、流石にGPUが付いていないPCでは起動不可だと思われます。

 

自分のPCについているGPUの確認方法は、タスクマネージャーのパフォーマンスの欄をチェックするだけでOKです。

※Intel UHD Graphicsのことではないので注意!

 

ちなみに専用GPUメモリの事(上図)をVRAMというんですが、ここが最低でも6GBはないときついらしいです。

※快適に使いたい場合は10GB以上(RTX3060以上)が推奨されているので仕方がないですね。

 

Python 3.10.6のインストール

下記リンク先より、Python 3.10.6をPCにインストールします。WebUIで推奨されているバージョンは3.10.6なので、間違えて他のバージョンにしないよう注意しましょう。

Python Release Python 3.10.6
The official home of the Python Programming Language

 

「Windows installer (64bit)」をダウンロードして起動し、指示に従ってインストールします。

 

なお、必ずAdd Python 3.10 to PATHにチェックを入れるようにしましょう。

これを忘れるとシステムの環境設定から自分でPATHを通す必要が出てきます。

 

Python 3.10.6をダウンロードせずこれ以降の作業を進めようとすると、

Creating venv in directory venv using python  Unable to create venv in directory venv

exit code: 1

 

上記のようなエラーが表示されてWebUIが起動しなくなります。

 

Gitのインストール

下記リンク先よりStandalone版のGitをダウンロードします。

Git - Downloading Package

 

 

インストーラーをダブルクリックして起動し、指示に従ってインストールしましょう。

いろいろ設定を聞かれますが、特に変更せず次へを押していって大丈夫です。

 

Stable Diffusion WebUIのインストール

Release v1.0.0-pre · AUTOMATIC1111/stable-diffusion-webui
The webui.zip is a binary distribution for people who can't install python and git. Everything is included - just double click run.bat to launch. No requirement...

 

上記GitHubのリンクより、「sd.webui.zip」をダウンロードして解凍します。

 

解凍したフォルダは任意の場所に配置しましょう。私の場合はデスクトップ上にStable Diffusionというフォルダを作成し、その中に置いています。

 

フォルダの中にあるrun.batをクリックします。

 

コマンドプロンプトが立ち上がり、自動的に必要なファイルがダウンロードされていきます。

「続行するには何かキーを押してください」という表示が出るまで待ちましょう。

 

続いてGTX1660Ti等の低スペックGPUでも動作できるようにコマンドを追記していきます。

webuiフォルダの中にある「webui-user.bat」をメモ帳で開いてください。

 

set COMMANDLINE_AGESに下記のコマンドを入力します。

--autolaunch --precision full --no-half --lowvram --xformers

 

 

このうち最初の4つは低スぺGPUでも起動できるようにするコマンド、xformersはAIイラストの生成速度を高速化するコマンドです(詳しくはこちら。GTX10XX以降のグラボに対応しているらしいです。)

もしハイスペックGPUを使っている場合は、xformers以外のコマンドを入力する必要はありません。



モデルデータの導入

「Stable Diffusion WebUI」で使うモデルデータを用意しましょう。下記のサイトからダウンロードするのがおすすめです。

Civitai | Stable Diffusion models, embeddings, hypernetworks and more
Civitai is a platform for Stable Diffusion AI Art models. We have a collection of over 1,700 models from 250+ creators. We also have a collection of 1200 review...

 

各モデルデータのページを開くと青い「Download Latest」というボタンがあるので、それをクリックすればOKです。

 

上のモデルはこの記事のアイキャッチ画像にも使っている、NeverEndingDreamです。おすすめ!

https://civitai.com/models/10028/neverending-dream-ned

 

入手したモデルデータを「\webui\models\Stable-diffusion」の中に配置します。

 

なおLoRAモデルのデータは「\webui\models\Lora」、VAEのデータは「\webui\models\VAE」に格納します。

どの場合でもダウンロードした.ckpt、もしくは.safetensorsをそのままドラッグアンドドロップするだけでOKです。

 

※他にも下記のサイトからもモデルデータをダウンロードできます。

Models - Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

 



WebUIを起動する。

では「Stable Diffusion WebUI」を起動しましょう。

webui-user.batをダブルクリックします。

 

初回起動時のみ時間はかかりますが、Google Colabratoryの時と同様にWebUIが起動します。

 

エラーが表示されて起動できないときの対処法

下記のサイトに数多くの対策が載っていますので、自分と同じエラーコードがないか確認しましょう。

【Control Net】ポーズを指定しAIイラストを描く方法【AUTOMATIC1111 / Web UI】
AUTOMATIC1111(Web UI)で Control NetのOpenPose Preprocessorを使うとポーズを指定してAIイラストを生成できます。こちらの導入~使い方を解説。またポーズ人形の作り方や制作のコツなども紹介。
よくある質問 - としあきdiffusion Wiki*
エラー解決メモ - としあきdiffusion Wiki*
ローカル版導入 - としあきdiffusion Wiki*

 

このどれにも該当しない場合は、エラーの内容で検索してみるしかありません。Redditなどに多く情報が寄せられている印象がありました。

 

AIイラストの作成時間に関して(GTX1660Ti)

私のGPU(GTX1660Ti)ではイラストを1枚生成するのに、Google Colabratoryの時と比較して約2倍の時間がかかりました。

やっぱりGPUパワーが不足している…

 

Google Colabratoryのように使用に制限がないことは魅力的ですが、やっぱり新しいデスクトップPCが欲しくなってきますw

 

RTX3080の値段も一時期と比べて下がってきていることですし、数年以内にはPCの買い替えをしたいです!

 

GPUの種類によって生成されるAIイラストに差異があるかも?

全く同じプロンプトを使用しても、RTX3000番台以降のGPUとRTX2000番台以前のGPUでは、生成イラストに差があると主張するユーザー投稿を見つけました。

고해상도 이미지는 그래픽 카드에따라 결과가 다름 - AI 그림 채널
왼쪽은 기본오른쪽은 Highres. fix 켜진것설정값은sketch, line-art, masterpiece, highest quality, absurdres, (sharp focus:1.2), sanpaku, (1

 

あくまでもこれは1ユーザーによる投稿なので100%正しいのかどうかは不明ですが、やはり古い時代のGPUを使うことはリスクになるのかもしれませんね。

 

まとめ

以上が、「Stable Diffusion WebUI」をローカル環境に構築するやり方でした。

導入方法はかなり面倒ですが、ハイエンドなGPUを持っている場合、一度環境を構築するとGoogle Colabratoryで生成するよりも圧倒的に自由度が高くなるので、ぜひ試してみてはいかがでしょうか。

では、ここまで読んでいただきありがとうございました。

コメント

  1. 匿名 より:

    いつもありがとうございます。ストレートに起動できず、半日かかって起動させることができました。
    とはいえ、GTX1080Tiで1枚の画像に約3分、googleの6倍くらいかかりました。笑
    PC買い替えや電気代のことを考えると、googleに課金したほうがいいかもですね

    • 悠 より:

      コメントありがとうございます!起動できて何よりです!!

      それは意外です!GTX1080Tiは私のGTX1660Tiより性能がいいはず…
      1660Tiですら2倍かかる程度という体感だったんですが

      もしかして生成するイラストのサイズを大きめ(512×768以上)にしてたりしますでしょうか?
      今度別の記事でまとめようと思っているんですが、サイズを大きくしたい場合は、最初に設定するよりもStable Diffusionの別機能(hi resやextras)を使った方が生成時間が早くなります(品質も上です)!

      • 匿名 より:

        ありがとうございます!おっしゃる通り画像サイズが大きめでした。
        いつもちょうど知りたかった情報をわかりやすく更新してもらえるのでマジ助かってます。
        おかげで新しい趣味が増えました!

        • 悠 より:

          嬉しすぎるお言葉、誠にありがとうございます!!

          私も何気なく始めたStable Diffusionが楽しすぎて、RTX3080Tiを買いたくなってきてしまいましたw

  2. 匿名 より:

    2020のM1チップのmacでやったら、step40ぐらいの設定で30分くらいかかってクソ笑いました。 やっぱ気軽にGPUつけ外しできるWindows最強だなぁと。

    • 悠 より:

      30分!!それはお疲れ様すぎますw
      とてもじゃないですが常用するのは厳しいですね..!!