最終更新: tomoe_magica 2020年12月13日(日) 19:00:47履歴
まずは _power系はすべて0、
ct_modeも無理にrctにしなくてもまずはnoneで、mergeのときにがんばろう
とりあえず最初は
っていうならresolution160や192あたりでやればいいんじゃないの
みんな256にこだわるけど俺はそんなに高解像度じゃなくてもよいんじゃないか派だよ
せっかく高スペックなのなら、その限界を探るよりも必要十分レベルで速度と試行回数を稼いだほうが幸せな気が
ae_dimsを512にしてるのは正解
残りの dimsはそのままでいいと思う
models_opt_on_gpuをyにした状態が本来の姿で、
trainに必要なコアな処理をGPUのみ、かつVRAMの中でのみ動かしている状態
これが一回の学習にかかる速度が速い
nにすると通常のRAMに一部のデータと処理を預けて、CPUも使い始める
なのでGPUの貢献度が低くなるということ
一般的にはバッチ数を稼ぐためにoffにする
random warp
src画像の変形と回転をやって学習させることでいろんなバリエーションに対しての汎化(generalize)度を上げている
modelの対応力を高めるために必要、初期は必ずonにすべし、やりすぎるリスクはない、srcやdstを大きく入れ替えたときにやると効果あり、何度on/offしても問題ない、最後は必ずoff
ランダムワープについてはpreviewでいうとどのsrcの顔もぼんやりと形になってきた段階、勝手な意見だとloss値0.6〜1.0あたりで切り上げてよいと思う
srcの中の様々な角度や表情のことであって
通常の学習だとsrcの画像群の種類の分布に応じて、特定の角度ばかりに学習が進みがちになるので
それを防ぐためにNNの重みを全体的に歪ませつつ(=warped)、すべてのsrc画像の学習を平準化させるのが目的
GANは肌や眉毛の質感がより自然になってすごく人間らしくなった(個人の感想)
GANはenhanceと同様で、sharpにするだけで細部の表現を補う機能では無い気がする
個々のオプションはあんまり同時にONにしないこと
trainでmklにして、mergeでrctにしてる。効果のほどはよく分からない。
GANは最後に5000iterだけ回す
learn_mask
この機能を使用するとパフォーマンスとVRAMの使用に大きな影響があるため、まずモデルをある程度または完全にトレーニングし、
短時間(5-6k回の反復)のみマスクを有効にすることをお勧めします
最後またはトレーニング中のどこか(複数回有効化および無効化できます)
ソースの顔色がバラバラなら、Seamless、clor transfer を idt
顔が揺れるバグ?がでたらブラー関係の値を下げてみる
DFL 2.0の初期設定
res:128 ae_dims:256 e_dims:64 d_dims:48
解像度を上げた場合は全体をバランス良く上げるよう
GANとかTFは効果は100%あるが闇雲にかけるものではない。どちらも完成した後にかける調味料みたいなもの
GANは主に詳細さが足りない時に足す
拾えなかった小さなシワやホクロ、そういったディティールが反映される
その分src画像にボヤケてるのとか入ってるとノイズが反映されたりしてよろしくない
TFはなじみ感を無視してsrcの色や表情等引っ張ってくるので
srcに似せるには特効薬だが、副作用として色が浮いたりdstへの表情追従が甘くなって、大根役者のようになったりする
dstとの相性もあるだろうが、0.005くらいが限度な感じ
TFはdstの髪型とか表情ほぼ無視するからな
srcにある画像の中から一番近いのを採用する感じ
GANは仕上げにちょっと足すくらいかTFは崩れるから使わん
True faceなんかいらないでしょ
GANはsrc画像さえちゃんとしてれば
大きな副作用無く自然な感じに仕上がるからとても有効なオプション
色も良い方に傾く感じ
ただしディティールの追求という性質上、効果はひと目でわかる類いのものではない
ct_modeも無理にrctにしなくてもまずはnoneで、mergeのときにがんばろう
とりあえず最初は
っていうならresolution160や192あたりでやればいいんじゃないの
みんな256にこだわるけど俺はそんなに高解像度じゃなくてもよいんじゃないか派だよ
せっかく高スペックなのなら、その限界を探るよりも必要十分レベルで速度と試行回数を稼いだほうが幸せな気が
ae_dimsを512にしてるのは正解
残りの dimsはそのままでいいと思う
models_opt_on_gpuをyにした状態が本来の姿で、
trainに必要なコアな処理をGPUのみ、かつVRAMの中でのみ動かしている状態
これが一回の学習にかかる速度が速い
nにすると通常のRAMに一部のデータと処理を預けて、CPUも使い始める
なのでGPUの貢献度が低くなるということ
一般的にはバッチ数を稼ぐためにoffにする
random warp
src画像の変形と回転をやって学習させることでいろんなバリエーションに対しての汎化(generalize)度を上げている
modelの対応力を高めるために必要、初期は必ずonにすべし、やりすぎるリスクはない、srcやdstを大きく入れ替えたときにやると効果あり、何度on/offしても問題ない、最後は必ずoff
ランダムワープについてはpreviewでいうとどのsrcの顔もぼんやりと形になってきた段階、勝手な意見だとloss値0.6〜1.0あたりで切り上げてよいと思う
srcの中の様々な角度や表情のことであって
通常の学習だとsrcの画像群の種類の分布に応じて、特定の角度ばかりに学習が進みがちになるので
それを防ぐためにNNの重みを全体的に歪ませつつ(=warped)、すべてのsrc画像の学習を平準化させるのが目的
GANは肌や眉毛の質感がより自然になってすごく人間らしくなった(個人の感想)
GANはenhanceと同様で、sharpにするだけで細部の表現を補う機能では無い気がする
個々のオプションはあんまり同時にONにしないこと
trainでmklにして、mergeでrctにしてる。効果のほどはよく分からない。
GANは最後に5000iterだけ回す
learn_mask
この機能を使用するとパフォーマンスとVRAMの使用に大きな影響があるため、まずモデルをある程度または完全にトレーニングし、
短時間(5-6k回の反復)のみマスクを有効にすることをお勧めします
最後またはトレーニング中のどこか(複数回有効化および無効化できます)
ソースの顔色がバラバラなら、Seamless、clor transfer を idt
顔が揺れるバグ?がでたらブラー関係の値を下げてみる
DFL 2.0の初期設定
res:128 ae_dims:256 e_dims:64 d_dims:48
解像度を上げた場合は全体をバランス良く上げるよう
GANとかTFは効果は100%あるが闇雲にかけるものではない。どちらも完成した後にかける調味料みたいなもの
GANは主に詳細さが足りない時に足す
拾えなかった小さなシワやホクロ、そういったディティールが反映される
その分src画像にボヤケてるのとか入ってるとノイズが反映されたりしてよろしくない
TFはなじみ感を無視してsrcの色や表情等引っ張ってくるので
srcに似せるには特効薬だが、副作用として色が浮いたりdstへの表情追従が甘くなって、大根役者のようになったりする
dstとの相性もあるだろうが、0.005くらいが限度な感じ
TFはdstの髪型とか表情ほぼ無視するからな
srcにある画像の中から一番近いのを採用する感じ
GANは仕上げにちょっと足すくらいかTFは崩れるから使わん
True faceなんかいらないでしょ
GANはsrc画像さえちゃんとしてれば
大きな副作用無く自然な感じに仕上がるからとても有効なオプション
色も良い方に傾く感じ
ただしディティールの追求という性質上、効果はひと目でわかる類いのものではない
- トレーニング設定を入力すると、プレビューウィンドウとコマンドウィンドウが表示されます。プレビューウィンドウ内にiter:数が表示されます。これは、トレーニングが完了した反復回数を意味します。トレーニングを停止するタイミングに関する正しい答えはありませんが、結果は通常、120k回の反復で明確になります(トレーニング済みの新しいモデル)。いつトレーニングを停止するかを推定するために、常にプレビュー表示を使用してください。
- トレーニングを保存する場合は、プレビューメニューで[s]キー、[ENTER]キーをクリックします。
寄付(任意)について
Amazon.jpギフト券での寄付は受け付けています
- AmazonでE-Mailタイプのギフト券を購入(金額は任意)
- 自分のアカウントに登録はしない
- 下記メールアドレスにAmazonギフト券番号を記載し、通知
- tomoe.magica@gmail.com
Seesaa Wiki関連リンク
タグ
コメントをかく