最終更新:ID:UQcE9klg5w 2023年05月30日(火) 14:55:39履歴
ローカルを様々な環境で動かす情報
まとめ
PyTorch-DirectMLが楽なので速度的に不利でもそっちを使うようになってきたのかも(エアプ)
DirectML版
まとめ
- Pythonのバージョンは 3.9 3.10 の両対応が良さそう。
- 3.10ではcondaとpipの併用が一応可能そう。
-
Ubuntu 20.04(22.04でも動くがコンパイルが必要そう) -
Python 3.9+conda xformersか、Python+pip(xformersなし)か、Python+pip+xformersコンパイルかの3択 - Ubuntu 22.04
- Python 3.10.6
- 3.10.10はコンパイル必要
- Windows環境よりも多少速くなるらしい
- ゲーム機を兼用するならデュアルブートが必要
- Ubuntu 22.04
- Python 3.10.6
- 3.10.10はコンパイル必要
- デュアルブートは不要になる
- 仮想化による速度低下よりもLinuxによる速度向上の恩恵のほうが上っぽい
- Windows 10と11で使い方が違う。前提となるバージョンがある
PyTorch-DirectMLが楽なので速度的に不利でもそっちを使うようになってきたのかも(エアプ)
- https://gist.github.com/reid3333/541fab0eb29d4c955...
- 1111
- Python 3.10.10
- torch 1.13.1
DirectML版
- https://github.com/lshqqytiger/stable-diffusion-we...
- Python 3.10.6?
- torch 2.0.0
- torch-DirectML 0.2.0.dev230426
- https://github.com/rahulunair/stable_diffusion_arc
- SD1.5(1111の対応可否は不明)
- Pythonは3.9
- condaとpipを併用
- xformersは言及なし
- https://github.com/apple/ml-stable-diffusion
- SD2.0/1.4/1.5
- 1111での対応検討は「PyTorchで良くない?」説が出ている
- Pythonは3.8
- condaとpipを併用
- xformersは言及なし
- iPad Proで38秒なので1060くらいか?
- 動作原理はM1のと同じっぽい
- CoreML3対応機種である必要がある(iOS13以降かつiPhone 11以降っぽい)
- メモリ4GB以上?
- 配布アプリの仕様による(1111そのものは無い)
- アプリユーザーによる改造は恐らく不可能
- 画像を小さくして数分程度
- https://github.com/bes-dev/stable_diffusion.openvi...
- SD1.4(1111の対応可否は不明)
- Docker
- python:3.9.9
- pip
- 生成時間は分単位
- Ryzenでも動くっぽい?
- Python 3.9.16 (2023-03-09から)
- miniconda Python 3.10.10
- pip Python 3.10.10
- xformers 0.14はcondaかPythonのバージョンに対応するwhlが必要
- xformers 0.16はpipでインストール可能(だがkohyaでは避けられることも)
タグ
このページへのコメント
2023/6/2の更新で起動時の引数にbackendなるものが増えてる
ローカルを動かすときに何を使うか指定できるみたい
指定可能な値は以下の4つ
cuda:GeForece向け
rocm:Radeon向け(Linux環境)
directml:Radeon向け
auto:自動判定
Radeon(Windows pytorch-directml)を行おうとしているのですが、「9,Modify modules/devices.py for use DirectML」と「10.Modify repositories\k-diffusion\k_diffusion\external.py for workaround DirectML bugs 」の実行の仕方がわかりません。
どなたか教えていただけないでしょうか。
patchコマンドが使えないなら、
テキストエディタで対象のファイルを開いて、
赤い行を探して消して緑の行をそこに足して、
先頭の+を削除すればいいやで
起動できました。ありがとうございました。