画像生成AIの情報を纏めるWikiです。

×

書き方

サンプルを置いとく

公式

公式Wiki, コマンド ラインの引数と設定(英語)

公式wiki翻訳版|コマンドライン引数表

※翻訳は基本的には機械翻訳に通しだけなのでざっと意味を把握するのにどうぞ。
正確な意味を求める場合は英語欄を参照してな
出典:公式Wiki, Command Line Arguments and Settings(英語)
引数コマンド|Argument Command値|Value既定値|Default説明Description
---------------
▼設定|CONFIGURATION
-h, --helpNoneFalseこのヘルプメッセージを表示して終了するshow this help message and exit
--exitインストール後に終了するTerminate after installation
--data-dirDATA_DIR./すべてのユーザーデータが格納される基本パスbase path where all user data is stored
--configCONFIGconfigs/stable-diffusion/v1-inference.yamlモデルのconfigのパスpath to config which constructs model
--ckptCKPTmodel.ckptデフォルトで読み込むモデルの指定(SDモデルのチェックポイントへのパス。指定した場合、このチェックポイントはチェックポイントの一覧に追加され、読み込まれます)path to checkpoint of stable diffusion model; if specified, this checkpoint will be added to the list of checkpoints and loaded
--ckpt-dirCKPT_DIRNoneモデルのディレクトリへのパスPath to directory with stable diffusion checkpoints
--no-download-sd-modelNoneFalseモデルが見つからない場合でもSD1.5モデルをダウンロードしないdon't download SD1.5 model even if no model is found
--vae-dirVAE_PATHNoneVAEへのパスPath to Variational Autoencoders model
--gfpgan-dirGFPGAN_DIRGFPGAN/GFPGANのディレクトリGFPGAN directory
--gfpgan-modelGFPGAN_MODELGFPGAN model file nameGFPGANのデフォルトモデルの指定
--codeformer-models-pathCODEFORMER_MODELS_PATHmodels/Codeformer/codeformerモデルファイルを含むディレクトリへのパスPath to directory with codeformer model file(s).
--gfpgan-models-pathGFPGAN_MODELS_PATHmodels/GFPGANGFPGANモデルファイルを含むディレクトリへのパスPath to directory with GFPGAN model file(s).
--esrgan-models-pathESRGAN_MODELS_PATHmodels/ESRGANESRGANモデルファイルを含むディレクトリへのパスPath to directory with ESRGAN model file(s).
--bsrgan-models-pathBSRGAN_MODELS_PATHmodels/BSRGANBSRGANモデルファイルを含むディレクトリへのパスPath to directory with BSRGAN model file(s).
--realesrgan-models-pathREALESRGAN_MODELS_PATHmodels/RealESRGANRealESRGANモデルファイルを含むディレクトリへのパスPath to directory with RealESRGAN model file(s).
--scunet-models-pathSCUNET_MODELS_PATHmodels/ScuNETScuNETモデルファイルを含むディレクトリへのパスPath to directory with ScuNET model file(s).
--swinir-models-pathSWINIR_MODELS_PATHmodels/SwinIRSwinIR および SwinIR v2 モデル ファイルを含むディレクトリへのパスPath to directory with SwinIR and SwinIR v2 model file(s).
--ldsr-models-pathLDSR_MODELS_PATHmodels/LDSRLDSRモデルファイルを含むディレクトリへのパス。Path to directory with LDSR model file(s).
--lora-dirLORA_DIRmodels/LoraLoraネットワークのあるディレクトリへのパス (デフォルト: lora)Path to directory with Lora networks.
--clip-models-pathCLIP_MODELS_PATHNoneCLIPモデルファイルを含むディレクトリへのパス。Path to directory with CLIP model file(s).
--embeddings-dirEMBEDDINGS_DIRembeddings/textual inversion用のembeddingを入れるディレクトリ (デフォルトはembeddings)embeddings directory for textual inversion (default: embeddings)
--textual-inversion-templates-dirTEXTUAL_INVERSION_TEMPLATES_DIRtextual_inversion_templatestextual inversionテンプレートを含むディレクトリへのパスdirectory with textual inversion templates
--hypernetwork-dirHYPERNETWORK_DIRmodels/hypernetworks/hypernetworkディレクトリhypernetwork directory
--localizations-dirLOCALIZATIONS_DIRlocalizations/ローカライズディレクトリlocalizations directory
--styles-fileSTYLES_FILEstyles.csvスタイルに使用するファイル名filename to use for styles
--ui-config-fileUI_CONFIG_FILEui-config.jsonUI 設定に使用するファイル名filename to use for ui configuration
--no-progressbar-hidingNoneFalsegradio UIでプログレスバーを非表示にしない(ブラウザでハードウェアアクセラレーションを使用している時にMLの速度が低下するため非表示にしてる)do not hide progressbar in gradio UI (we hide it because it slows down ML if you have hardware acceleration in browser)
--max-batch-countMAX_BATCH_COUNT16UIの最大Batch countmaximum batch count value for the UI
--ui-settings-fileUI_SETTINGS_FILEconfig.jsonUI設定に使用するファイル名filename to use for ui settings
--allow-codeNoneFalseWebUIからのカスタムスクリプト実行を許可するallow custom script execution from webui
--shareNoneFalseshare=Trueを使用し、gradioのサイトからUIにアクセスできるようにする。use share=True for gradio and make the UI accessible through their site (doesn't work for me but you might have better luck)
--listenNoneFalseサーバー名として0.0.0.0でgradioを起動し、ネットワークのリクエストに応答できるようにする。launch gradio with 0.0.0.0 as server name, allowing to respond to network requests
--portPORT7860指定したポートでgradioを起動する。1024未満のポートはroot/管理者権限が必要。デフォルトは7860(利用可能な場合)launch gradio with given server port, you need root/admin rights for ports < 1024, defaults to 7860 if available
--hide-ui-dir-configNoneFalseWebUIからディレクトリ構成を隠すhide directory configuration from webui
--freeze-settingsNoneFalse設定の編集を無効にするdisable editing settings
--enable-insecure-extension-accessNoneFalse他のオプションに関係なくExtensionタブを有効にするenable extensions tab regardless of other options
--gradio-debugNoneFalse--debugオプションを指定してgradioを起動するlaunch gradio with --debug option
--gradio-authGRADIO_AUTHNone「username:password」のようにgradio認証を設定します。または「u1:p1,u2:p2,u3:p3」のようにカンマ区切りで複数指定set gradio authentication like "username:password"; or comma-delimit multiple like "u1:p1,u2:p2,u3:p3"
--gradio-auth-pathGRADIO_AUTH_PATHNoneradio認証ファイルパスを「/path/to/auth/file」のように設定する。--gradio-authと同じフォーマット。set gradio authentication file path ex. "/path/to/auth/file" same auth format as --gradio-auth
--disable-console-progressbarsNoneFalseプログレスバーをコンソールに表示しないdo not output progressbars to console
--enable-console-promptsNoneFalsetxt2imgおよびimg2imgで生成するときにプロンプトをコンソールに出力するprint prompts to console when generating with txt2img and img2img
--apiNoneFalseAPIを使用してWebUIを起動するlaunch webui with API
--api-authAPI_AUTHNoneAPIの認証を「ユーザー名:パスワード」または「u1:p1,u2:p2,u3:p3」 のようにコンマ区切りの複数で設定する。Set authentication for API like "username:password"; or comma-delimit multiple like "u1:p1,u2:p2,u3:p3"
--api-logNoneFalseすべてのAPIリクエストのロギングをするenable logging of all API requests
--nowebuiNoneFalseUIなしでAPIのみを起動するonly launch the API, without the UI
--ui-debug-modeNoneFalseUIの起動高速化するためにモデルを読み込まないDon't load model to quickly launch UI
--device-idDEVICE_IDNone使用するデフォルトのCUDAデバイスを選択する(export CUDA_VISIBLE_DEVICES=0,1などが必要になる場合あり)Select the default CUDA device to use (export CUDA_VISIBLE_DEVICES=0,1,etc might be needed before)
--administratorNoneFalse管理者権限Administrator rights
--cors-allow-originsCORS_ALLOW_ORIGINSNoneコンマ区切りリスト(空白無し)で許可されたCORSオリジン(?)Allowed CORS origin(s) in the form of a comma-separated list (no spaces)
--cors-allow-origins-regexCORS_ALLOW_ORIGINS_REGEXNone正規表現で許可されたCORSオリジン(?)Allowed CORS origin(s) in the form of a single regular expression
--tls-keyfileTLS_KEYFILENone一部TLSを有効にする。全機能を動作させるには--tls-certfileが必要Partially enables TLS, requires --tls-certfile to fully function
--tls-certfileTLS_CERTFILENone一部TLSを有効にする。 全機能を動作させるには--tls-keyfileが必要Partially enables TLS, requires --tls-keyfile to fully function
--server-nameSERVER_NAMENoneサーバーのホスト名を設定するSets hostname of server
--gradio-queueNoneFalsegradioキューを使用する。試験的オプション。Restart UIボタンが動作しなくなる。Uses gradio queue; experimental option; breaks restart UI button
--skip-version-checkNoneFalseTorchとxformersのバージョンを確認しないDo not check versions of torch and xformers
--no-hashingNoneFalseチェックポイントのSHA256ハッシュ計算を無効にして、読み込み速度を向上させるdisable sha256 hashing of checkpoints to help loading performance
▼パフォーマンス|PERFORMANCE
--xformersNoneFalseクロスアテンションレイヤーのxformersを有効にするenable xformers for cross attention layers
--reinstall-xformersNoneFalsexformersを強制的に再インストールする。アップグレードには便利だが、作業が完了したら引数を削除しよう(繰り返し再インストールされる)force reinstall xformers. Useful for upgrading - but remove it after upgrading or you'll reinstall xformers perpetually.
--force-enable-xformersNoneFalse確認用コードが実行可能と判断するかどうかに関係なく、クロスアテンションレイヤーでxformersを有効にする。これが機能しなくてもバグを報告しないでねenable xformers for cross attention layers regardless of whether the checking code thinks you can run it; do not make bug reports if this fails to work
--xformers-flash-attentionNoneFalseFlash Attentionでxformersを有効にして再現性を向上させる(SD2.x系モデルで利用可能)enable xformers with Flash Attention to improve reproducibility (supported for SD2.x or variant only)
--opt-split-attentionNoneFalseDoggettxのクロスアテンションレイヤーの最適化を強制的に有効にする。CUDA対応システムではデフォルトで有効。force-enables Doggettx's cross-attention layer optimization. By default, it's on for cuda enabled systems.
--opt-split-attention-invokeaiNoneFalseInvokeAI のクロスアテンションレイヤー最適化を強制的に有効にする。デフォルトではCUDAが利用できないときに有効化される。force-enables InvokeAI's cross-attention layer optimization. By default, it's on when cuda is unavailable.
--opt-split-attention-v1NoneFalse検出できるすべてのVRAMを消費しない古いバージョンのスプリットアテンション最適化を有効にするenable older version of split attention optimization that does not consume all the VRAM it can find
--opt-sub-quad-attentionNoneFalseメモリ効率の高いサブ2次クロスアテンション層の最適化を実現enable memory efficient sub-quadratic cross-attention layer optimization
--sub-quad-q-chunk-sizeSUB_QUAD_Q_CHUNK_SIZE1024使用するサブ 2 次クロスアテンション層最適化のクエリチャンクサイズquery chunk size for the sub-quadratic cross-attention layer optimization to use
--sub-quad-kv-chunk-sizeSUB_QUAD_KV_CHUNK_SIZENone使用するサブ2次クロスアテンション層最適化のkVチャンクサイズkv chunk size for the sub-quadratic cross-attention layer optimization to use
--sub-quad-chunk-thresholdSUB_QUAD_CHUNK_THRESHOLDNoneチャンクを使用するためのサブ2次クロスアテンション層最適化のVRAMしきい値の割合the percentage of VRAM threshold for the sub-quadratic cross-attention layer optimization to use chunking
--opt-sdp-attentionNoneFalseスケールドドットプロダクトによるクロスアテンションレイヤー最適化を有効にする PyTorch 2.*が必要enable scaled dot product cross-attention layer optimization; requires PyTorch 2.*
--opt-sdp-no-mem-attentionNoneFalseメモリ効率の良いアテンションをせず、スケールドドットプロダクトによるクロスアテンションレイヤーの最適化を有効にする 画像生成を決定論的にする(同シードで繰り返し生成しても同じ画像を生成する) PyTorch 2.*が必要enable scaled dot product cross-attention layer optimization without memory efficient attention, makes image generation deterministic; requires PyTorch 2.*
--opt-channelslastNoneFalse4Dテンソルの代替レイアウトを有効にする。Tensorコア(16xx以上)を搭載したNVIDIA製GPUでのみ推論が速くなる可能性がある。Enable alternative layout for 4d tensors, may result in faster inference only on Nvidia cards with Tensor cores (16xx and higher)
--disable-opt-split-attentionNoneFalseクロスアテンションレイヤーの最適化を強制的に無効にしますforce-disables cross-attention layer optimization
--disable-nan-checkNoneFalse生成された画像/潜在空間でNaNが発生したか確認しない。CIでチェックポイントなしで実行するのに便利do not check if produced images/latent spaces have nans; useful for running without a checkpoint in CI
--use-cpu{all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer}None指定されたモジュールのTorchデバイスとしてCPUを使用use CPU as torch device for specified modules
--no-halfNoneFalseモデルをfp16に切り替えないdo not switch the model to 16-bit floats
--precision{full,autocast}autocast指定した精度で推論するevaluate at this precision
--no-half-vaeNoneFalseVAEモデルをfp16に変換しない。do not switch the VAE model to 16-bit floats
--upcast-samplingNoneFalseアップキャストサンプリング。--no-halfでは効果なし。通常、--no-halfと同様の結果を生成し、より少ないメモリで動作しパフォーマンスが向上する。upcast sampling. No effect with --no-half. Usually produces similar results to --no-half with better performance while using less memory.
--medvramNoneFalseStable Diffusionモデルの最適化を有効にし、若干の速度低下と引き換えにVRAM消費量を減らすenable stable diffusion model optimizations for sacrificing a little speed for low VRM usage
--lowvramNoneFalseStable Diffusionモデルの最適化を有効にし、大幅な速度低下と引き換えにVRAM消費量を大幅に減らすenable stable diffusion model optimizations for sacrificing a lot of speed for very low VRM usage
--lowramNoneFalseStable DiffusionチェックポイントのウェイトをRAMの代わりにVRAMに読み込むload stable diffusion checkpoint weights to VRAM instead of RAM
--always-batch-cond-uncondNoneFalse--medvram または --lowvram でメモリを節約するために有効になっている cond/uncond バッチ処理を無効にするdisables cond/uncond batching that is enabled to save memory with --medvram or --lowvram
▼外観ほか|FEATURES
--autolaunchNoneFalse起動時にシステムのデフォルトブラウザでwebuiを開くopen the webui URL in the system's default browser upon launch
--themeNoneUnset指定したテーマ(「ライト」または「ダーク」)でWebUIを開く。指定しない場合は、ブラウザ既定のテーマを使用する。open the webui with the specified theme ("light" or "dark"). If not specified, uses the default browser theme
--use-textbox-seedNoneFalseUIのシードにテキストボックスを使用します(アップ/ダウンはありませんが、長いシードを入力することは可能です)use textbox for seeds in UI (no up/down, but possible to input long seeds)
--disable-safe-unpickleNoneFalsePyTorchモデルに悪意のあるコードが含まれていないかどうかのチェックを無効にするdisable checking pytorch models for malicious code
--ngrokNGROKNonengrok authToken, gradioの--shareの代替ngrok authtoken, alternative to gradio --share
--ngrok-regionNGROK_REGIONusngrokを開始するリージョン。The region in which ngrok should start.
▼廃止されたオプション|DEFUNCT OPTIONS
--show-negative-promptNoneFalse何もしないdoes not do anything
--deepdanbooruNoneFalse何もしないdoes not do anything
--unload-gfpganNoneFalse何もしないdoes not do anything.
--gradio-img2img-toolGRADIO_IMG2IMG_TOOLNone何もしないdoes not do anything
--gradio-inpaint-toolGRADIO_INPAINT_TOOLNone何もしないgdoes not do anything

うまく動かないとき


webui.batで起動すると、webui-user.batで設定した内容をすべて無視して起動することが出来る。
もしそれで起動するならwebui-user.batに書いた内容が原因と思われる。

PYTHON


普通は空でいい。
PATHの通ってないPython.exeを使いたければフルパスで指定することができる。

GIT


空を推奨。
PATHの通ってないGITを指定しても動かない。(バグだと思う)

VENV


空を推奨。webui直下にvenvを作る。
この場所を変更したい時に入れる。

COMMANDLINE_ARGS


set COMMANDLINE_ARGS=の右に目的のパラメータを入力します
複数ある時は半角スペースで区切ります。
set COMMANDLINE_ARGS=--xformers --opt-channelslast

https://github.com/AUTOMATIC1111/stable-diffusion-...

以下はよく使うオプションのみ紹介。

--xformers (高速化/VRAM消費減)


おすすめ。20%以上高速化する。
WindowsではPython 3.10が必要
Colabではcondaで入れると入れやすい。
出力画像が毎回ごくわずかに変化するが、品質が変化するわけではない。
出力の比較をしたので詳細はこちらへ↓
xformersの検証

--opt-channelslast (高速化)


1111のWikiのよると、Tensor Coreを搭載したNVIDIA製GPU(GTX16以上)で高速化が期待できるとのこと。
NVIDIA RTX系のグラボは速くなることを確認済み。
環境によっては効果が無かったり逆に遅くなったりするらしいので比較検討しましょう。

先に以下の設定をやる。
(2023/04/14 確認)現在はwebui-user.batに付けるだけでよくなった模様

旧・設定

--no-half-vae (画像真っ黒対策)


VAEやVAE埋め込みモデルを使っている時、たまに画像が真っ黒になる問題を修正する。
fp16ではなくfp32を使う。
VRAM不足だけでなく、Anything+VAEの環境とかで真っ黒になりがち。

--no-half (16XXの高速化)


以前は1650、1660、1660Tiで画像が必ず真っ黒になってしまう問題があり、
その対策としてこのオプションを用いていた。
今はこのオプションが無くても真っ黒にならなくなったが速度が低下するため、
引き続きこのオプションを付けたほうが良さそう(環境によるのかも)

意味としては、モデルでfp16ではなくfp32を使う。
半精度浮動小数点数(fp16)はハードウェアに搭載されているのだが、
cudaの新しいバージョンでは機能しなくなってしまっている(直らんのか?)
--precision full も一緒に使う事になっているが、実は無くても動く。

fp16が動く環境で使うと余計にVRAMを使うので要注意。

--medvram もしくは --lowvram (VRAMの少ないGPUでの実行)


VRAMの少ないGPUでは設定の変更が必要な場合があります。
これらのパラメータは、より大きな画像やバッチサイズを作成したい通常のユーザーにも役立ちます
いくつかの変更により、VRAM使用量を大幅に削減することが可能です。

4GBのVRAMがあり、512x512(またはそれ以上)の画像を作成する場合:--medvram
2GBのVRAMの場合:--lowvram
これらのいずれかで「メモリ不足」エラーが発生している場合は、次の引数を追加します:--always-batch-cond-uncond --opt-split-attention

VRAMが足りている環境で使うと速度が落ちるので要注意。
medvramをつけると生成開始/終了に時間がかかるようになるのでBatch sizeを増やすと速度低下をある程度相殺できる。

--ckpt-dir


モデルの保存先を指定する。
デフォルトは models/Stable-diffusion
マージ沼をRamDiskやHDDで遊ぶお供に。

--gradio-img2img-tool color-sketch


わざわざ他のソフトで編集するのが面倒な人は起動引数にこれを足して再起動するとimg2imgの画像編集にカラーパレットがつく
スポイトツールもあるから肌の色を取ってちょっと服を塗りつぶして脱がすとかならこれで十分
スポイトツールは確認したけど見当たらない。(環境による?)

--share --gradio-auth user:password (Colabなどクラウド用)

    • shareでインターネットごしにアクセス出来るURLを作成する。
    • gradio-authで使用するためのユーザー名とパスワードを設定する。
userとpasswordは任意に変更する。

--listen --enable-insecure-extension-access (LAN用)

    • listenで自分のPC以外からのアクセスを受け付ける。
    • enable-insecure-extension-accessで、自分のPC以外からのアクセス時にExtensionsのインストールを許可する。
用途に応じて--shareと使い分けると良さそう。
WiFiの繋がったスマホでポチポチしたいだけならこれで十分。

--skip-torch-cuda-test (GPUのかわりにCPUを使う(非推奨))


CPUがfp16をサポートしていない場合エラーが出るので、
--no-half --no-half-vae
も追加で設定する。

3060比で100倍くらい時間かかるようになるけど動く。

--autolaunch (自動的にブラウザを立ち上げる)


既定のブラウザで1111が開く。

http://127.0.0.1:7860/
をブラウザにコピペする手間が省ける。

--reinstall-xformers (xformersの再インストール)


10xxシリーズ(Pascal)以降のNVIDIA製GPUを使っているなら
--reinstall-xformers --xformers
と指定することで xformers を再インストールできる。
https://github.com/AUTOMATIC1111/stable-diffusion-...

--disable-nan-check

NaNチェックを無効にして生成時に出るNansExceptionで画像生成が止まらないようにする。
Batch Count上げて連続生成してる時に勝手に止まらなくなるので便利。
有効にすると、従来どおりの黒画像が出る。

--opt-sdp-no-mem-attentionまたは--opt-sdp-attention

Torch2限定
xformersと同じく20%前後高速化し、出力にわずかな揺らぎが生じる。VRAM消費が多くなる可能性がある。
AMD Radeon,Intel Arcでも使える。


PYTORCH_CUDA_ALLOC_CONF


VRAM不足の時に使えそうだけど最適な値はよくわからん
https://pytorch.org/docs/stable/notes/cuda.html#me...

108スレの176
結局
・batファイルに set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6,max_split_size_mb:24 を追加
・ブラウザのハードウェアアクセサレータをオフ
・PC再起動
でtrainはじめて今ブンブン回ってるで。 

(隠し) ACCELERATE

SET ACCELERATE="True"

と入れると、accelerateを使う。

まだ実力のほどはわからないが、
そのうちfp16/fp32に起因するエラーが減ったり、
マルチCPUに対応したりするのかも知れない。

廃止された引数

--deepdanbooru

img2imgでDeepdanbooruを使う。画像からDanbooruタグを推定する機能。
標準機能になったので指定しても何も起こらない。

このページへのコメント

--opt-channelslastの項目のインストール云々やったらautomatic1111がぶっ壊れた。

1
Posted by 名無し(ID:i/kdb2qulg) 2023年04月06日(木) 22:46:13 返信

備考に**tp://禁止って書いてあるけどスキームがhttpsだったらOKなんかこれ?

0
Posted by 名無し(ID:87RGRKWD0g) 2023年03月25日(土) 19:10:32 返信

トークン数を増やす--max_embeddings_multiplesってどこで足せばいいんでしょうか?

0
Posted by 名無し(ID:RiwnWt4iZQ) 2023年03月12日(日) 12:24:45 返信

--opt-channelslast (高速化)のところ
なぜかhtmlのところがh抜きになってるで

0
Posted by 名無し(ID:sfrkRBi+dw) 2022年12月08日(木) 20:33:40 返信数(1) 返信

htmlじゃなくhttpsだった

0
Posted by 名無し(ID:sfrkRBi+dw) 2022年12月08日(木) 20:42:11

deepdanbooruは既に直ってると思う

最新版で確認

1
Posted by 名無し(ID:sfrkRBi+dw) 2022年12月03日(土) 11:32:34 返信

コメントをかく


「http://」を含む投稿は禁止されています。

利用規約をご確認のうえご記入下さい

Menu

table拡張js

どなたでも編集できます

メンバー募集!