顔入替ソフトのインストール方法、使用例、How to、TIPS、FAQ等です



1. Q:ディープフェイクとは何ですか?

A:ディープフェイクとは、AI(機械学習)を使用して作成されたビデオで、人物の顔(ターゲット/宛先)を他の人物(ソース)の顔と入れ替えます。

2. Q:ディープフェイクはどのように作られますか?

A:最近のほとんどのディープフェイクは、現在バージョン2.0のDeep Face Labを使用して作成されています。


DFL 2.0 Githubページによって作成されました: DFL 2.0のGitHubページ
DFL 2.0ダウンロード: Googleドライブ トレント

3.Q:1.0と2.0の違いは何ですか?

A:2.0は改善され、最適化されたバージョンです。
最適化によりパフォーマンスが向上するため、より高い解像度のモデルをトレーニングしたり、既存のモデルをより速くトレーニングしたりできます。マージと抽出も非常に高速です。

「それは素晴らしい」とあなたは言います...「しかし、キャッチはどこにありますか?」

問題は、DFL 2.0がAMD GPU / OpenCLをサポートしなくなったことです。
それを使用する唯一の方法は、Nvidia GPU(最小3.0 CUDA計算レベルサポートGPUが必要)またはCPUを使用することです。
CPUでのトレーニングは非常に遅く、抽出やマージ(以前はコンバートと呼ばれていました)などの他のすべてのステップも同様です。

また、新しいバージョンには、SAEHDとQuick 96の2つのモデルのみが付属しています。
H128/ H64 / DF / LIAEF / SAEモデルはありません。
また、1.0のすべての事前トレーニングモデル(SAE / SAEHD)は2.0と互換性がないため、新しいモデルをトレーニングする必要があります。
上記のメインガイドの投稿で詳細を確認できる他の変更点もあります。

4. Q:ディープフェイクを作成するのにどれくらい時間がかかりますか?

A:ターゲットビデオの長さ、およびデータ(フェイスセット)の大きさに応じて、説得力のあるディープフェイクを作成するには1〜7日かかります。

5. Q:ほんの数枚の写真でディープフェイクビデオを作成できますか?

A:一般的に、答えはノーになります。
フェイスセットを作成して適切なディープフェイクを作成するための推奨される方法は、ビデオを使用することです。
角度と表情が多ければ多いほど良いです。
確かに、わずか数百枚の写真でディープフェイクのビデオを作成することはできますが、動作しますが、結果は納得できません。

6. Q:理想的なフェイスセットサイズはどのくらいですか?

A:data_src(有名人)フェイスセットの場合、少なくとも1000の異なる画像を使用することをお勧めします。
もちろん、より多くの画像を作成できますが、データセットにさまざまな顔の角度や表情がある限り、一般に10,000-15,000の画像で十分です。

7. Q:ディープフェイクがぼやけるのはなぜですか。

A:顔がぼやける理由はたくさんあります。
ほとんどの場合、原因には、十分な長さのトレーニングが行われていない、ソースデータセットに必要な角度がない、抽出されたソースまたは宛先のフェイスセット/データセットの不適切なアライメント、
トレーニングまたはマージ中の不適切な設定、ソースまたは宛先のファセット/データセットのぼやけた顔が含まれます。
ディープフェイクを作成する際の対処方法と回避方法を知りたい場合は、このスレッドの最初の投稿(ガイドパート)を参照してください。

8. Q:最終的なディープフェイクビデオでモデルがまばたきしないのはなぜですか?

A:これはおそらく、目を閉じた顔を含むdata_srcに画像がないためです。
目的地/ターゲットビデオの顔の表情と角度に一致するように、可能なすべての角度で適切な量の異なる顔の表情を持っていることを確認してください
  • 目を閉じた顔を含み、モデルは顔が閉じた状態でどのように見えるかを知らない特定の位置に目があり、モデルの目が開いています。
これの別の原因は、間違った設定でトレーニングを実行しているか、調光設定をあまりにも減らしている可能性があります。

9. Q:トレーニングをいつ停止する必要がありますか?

A:正しい答えはありませんが、一般的なコンセンサスは、プレビューウィンドウを使用して、いつトレーニングを停止して変換するかを判断することです。
停止すべき正確な反復回数や損失値はありません。
事前学習済みのモデルを実行している場合は少なくとも100,000回の反復を、0から新しいモデルを実行している場合は200,000回の反復を推奨しますが、
その数は300.000回の反復でさえあります(モデルが学習しなければならない顔の数と数によって異なります) )。

10. Q:DFLがまったく機能していません(抽出、トレーニング、マージ)および/またはエラーメッセージが表示されています。

GPUがサポートされていないか、新しいバージョンのDFLで古いモデルを実行しようとしている(または他の方法)か、ソフトウェアまたはPCに問題があります。

GPUがサポートされているかどうかを最初に確認します。
DFLには3.0のCUDAコンピューティング機能が必要です。
https://en.wikipedia.org/wiki/CUDA#GPUs_supported

次に、ここから入手できる最新バージョンのDFLがあるかどうかを確認します: GOOGLE DRIVE TORRENT

そして、あなたが実行しようとしているモデルは、最も簡単な方法は、同じパラメータ(テストの目的のために2-4のような低い値にバッチサイズを調整する)を使用して
新しいモデルを実行しようとすることです、まだ対応しているかどうかを確認
あなたはまだ持っている場合問題、PCの確認、古いGPUドライバーや保留中のWindowsアップデートなどが原因で問題が発生する可能性があります。

それでも機能しない場合は、質問セクションで新しいスレッドを作成できますが、その前にgithubの問題タブを確認して、他のユーザーに同じ問題/エラーがないかどうかを確認してください
DFL 2.0のGitHub

あなたが何かを見つけて、同様の問題についてフォーラムを検索した場合、https://mrdeepfakes.com/forums/forum-questionsで新しいスレッドを作成するか、ここに投稿してください。

11. SAEHDのトレーニング中にOOM/out of memoryエラーが発生します。

OOMエラーが発生している場合は、VRAMが不足していることを意味します。
これを修正するために変更できるさまざまな設定があります。

a)バッチサイズを小さくする-バッチサイズを小さくすると、モデルが少ない画像でトレーニングされるため、使用するVRAMが少なくなりますが、同じ結果を得るには、
バッチサイズを大きくした場合よりも長くトレーニングする必要があります。
2〜4のようにバッチサイズが極端に小さい場合、結果の精度が低下する可能性があります。

b)オプティマイザーの設定を変更する( GPUにモデルとオプティマイザーを配置する)
  • Trueの場合、オプティマイザーとモデルは両方ともGPUで処理されるため、反復時間/パフォーマンス/トレーニングが高速になりますが、VRAMの使用量はFalseに設定されると、ネットワークオプティマイザーの実行義務がCPUで処理されるため、VRAMの使用量が少なくなり、 OOMなし、またはバッチサイズが大きくなる可能性がありますが、反復時間が長くなるため、トレーニングが遅くなります。

c)顔とbgスタイルの転送、TrueFaceトレーニング、GANトレーニング、SOT-Mなどのパフォーマンスの重いCTメソッドや学習マスク などの追加機能をオフにします
  • これらを有効にすると、反復/トレーニング時間が増加し、より多くのVRAMが使用されます。

12. Q:追加機能をすべてオフにしましたが、バッチサイズが小さい場合でもトレーニングでOOMエラーが発生します。

A:その場合、さらに設定を変更します。

a)解像度を下げてモデルを実行する-できる限りの最適化を行い、さまざまな機能を無効にしても、目的の解像度を実行できない場合があります。実行できるようになるまで(16倍)下げる

b)減らす AutoEncoder寸法、 エンコーダー寸法、 デコーダー寸法、 デコーダーマスク寸法。
これらの設定はモデルの寸法を制御するため、変更すると、顔の特徴や表情を学習するモデルの能力に劇的な影響を与えることができます。
値を低くすると、モデルは目を閉じたり、顔の特徴を学習しなくなります。他にできることがない場合にのみ変更してください。彼らが行うことの詳細については、ガイドを参照してください。

13. Q:ソースデータセットには多くの類似した顔が必要ですが、それらを削除するために使用できるツールはありますか?

A:はい。DFLに組み込まれた並べ替え方法を使用するか、VisiPicsなどのアプリを使用して、ソースデータセット内の似たような顔を検出して削除できます。

14. Q:既に数千回の反復を行っているモデルをトレーニングしていましたが、プレビューウィンドウの顔が突然黒/白/変に見え、損失値が上がりました/ゼロになりました。

A:モデルが崩壊しました。つまり、モデルを使用できなくなり、最初からやり直すか、バックアップがある場合はそれらを使用する必要があります。
モデルの崩壊を防ぐには、トレーニングを開始するときにグラデーションクリップを使用します。

15. Q:こんにちは、私はここにいるので、ディープフェイクを作りたいのですが、どのソフトウェアを使うべきですか?

A:AMDカードでトレーニングする場合は、DFL 2.0または1.0/FaceSwapを使用してください。

16. Q: Celeb A(data_src)のモデルをトレーニングし、Celeb B(data_dst)を宛先として使用する場合、同じCeleb Aのモデルを使用して新しいCeleb Cと交換できますか?モデルを再利用できますか?

A:はい、同じソースの偽物をさらに作成する場合、または同じデータセットを使用する場合でも、実際にモデルを再使用することをお勧めします。また、完全に異なるソースと宛先/ターゲットを操作するときにモデルを再利用できます。

17. Q:モデルを事前にトレーニングする必要がありますか?

A:再利用と同様に、はい、事前トレーニングが必要です。次の2つの方法で行うことができます
1. Eこれらは、モデルの起動時に選択できるDFL内の組み込みプリトレーニング機能を使用します。
これは、モデルを事前にトレーニングし、5〜20kの反復のどこでもこの機能を実行し、オフにする正しい方法です。
2.または、独自のデータセットを使用して、通常どおりモデルをトレーニングします。
これにより、適切なデータセットの使用を開始するときにわずかなモーフィングが発生する可能性があり、その結果、最終的な顔はsrcのように見えなくなります
(0.01以下の値でtruefaceを有効にすることで修正できます)。

18. Q:エラーが発生します。DeepFaceLabでのトレーニングに必要なdflイメージファイルではありません。

A:data_src/alignedおよび/またはdata_dst内の画像はDFLでのトレーニングには有効ではありません。

これにはいくつかの原因が考えられます。

1.有名人の共有データセットの1つを使用している場合、整列した顔(256x256画像)のように見えても、DFLとは異なるソフトウェアまたは古いバージョンで作成された可能性があります。
ランドマーク/アライメントデータをさまざまな方法で保存したさまざまなアプリ。
それらを修正するために必要なのは、単にアライメントプロセスを実行し、「data_src」フォルダー(その中の「aligned」フォルダーではない)に配置し、4)data_src extract faces S3FD

2 を使用して再度アライメントする ことです。整列後のgimp / photoshopのdata_srcまたはdata_dstの整列フォルダー内の顔/画像。
これらの画像を編集すると、画像内に保存されているランドマーク/アライメントデータが上書きされます。
これらの画像を最初に編集する場合 4.2)data_src utilフェイスセットメタデータを保存 してアライメント情報を別のファイルに保存し、画像を編集して実行します
4.2)data_src utilフェイスセットメタデータ を復元してそのデータを復元します。
許可されている編集のみが、AIのアップスケーリング/拡張( 4.2を使用して行うこともできます )
data_src util faceset extend with Gigapixel などの外部アプリを使用する)、色補正、または形状を変更しない顔の編集(削除など)または追加))、フリップ/ミラーリングまたは回転は許可されません。

3.「data_src/dst」または「aligned」フォルダーに、通常の、抽出されていない/位置合わせされたイメージがあります。

19. Q:変換中にエラーが発生します: XYZ.jpg/pngの顔が見つかりません。顔なしでコピーします。

A:「data_dst」フォルダーのXYZフレームでは、「aligned」フォルダーに顔が抽出されなかったことを意味します。

これは、実際にはそのフレームに表示される顔がなかったため(通常)、または表示 されたが、検出されなかった 角度または障害のために表示されたためです。
これを修正するには、これらの顔を手動で抽出する必要があります。

全体として、トレーニングを開始する前に、できるだけ多くの顔を揃えて適切に抽出する必要があります。
トレーニングの前に両方のデータセットをクリーンアップして、最初の投稿(ガイド)を確認し、トレーニングで使用し、
フォーラムで共有するためのソースデータセットの準備に関するこのスレッドを読んでください。

20. Q:エラーが発生しています:警告:複数の顔が検出されました。別々に扱うことを強くお勧めします。
警告:複数の顔が検出されました。ディレクショナルブラーは使用されません。変換中

A: data_dst/alignedフォルダー内の複数の顔が原因です。

抽出プロセスは、すべてのコストで各フレームの顔を検出しようとします。
複数の顔または1つの実際の顔を検出し、他の何かを顔として誤って検出した場合、次のようなフレームごとに複数のファイルが作成されます。
0001_0.jpg0001_1.jpg 0001_2.jpg(3つの顔を検出した場合)。

その場合、すべての不要な顔とすべての誤ってまたは誤って検出された顔を取り除く必要があります。
理想的には、トレーニングの前にそれらを削除したいので(モデルが不要な顔を学習しないように)、既にトレーニング済みの場合は後で削除してから、トレーニングに戻るか、変換する直前に削除できます。

これに関する問題の1つは、DFLが常に同じプレフィックスを持つ同じ顔をグループ化しないため、_0を持つ顔の一部が正しいものであり、同時に他のフレームでは異なる顔を検出した可能性があることです。
丁度、_0は(他の誰かの)間違った顔であり、_1は正しい顔です。
そのようなデータセットをクリーンアップおよび修正する方法はいくつかありますが、どのようにそれを行っても、すべての悪いものを削除し、良いものを保持し、検出されなかったものを手動で抽出する限り、
きれいでよくなります。トレーニングの準備が整った整合データセット。
ここで私のテクニックを知りたい場合は(最適ではないかもしれません)

:5.2を使用して顔を並べ替えることから始めます)data_dst並べ替え とヒストグラムによる並べ替えを選択すると、これは一般的に顔を色/構造の類似性で並べ替えます
同様の画像をグループ化し、回転/拡大/縮小されたイン/アウト顔、および他の人の誤検出や顔を含む可能性のある画像を分離し、リストの最初/最後に配置する可能性があります。


最初にすべての誤検知と不要な顔を削除する必要があります。
これが完了したので、ターゲットの間違って整列した顔をすべて削除して次のステップに移動するか、それらを切り取って別のフォルダーに配置することができます。
これは、次に5.1)data_dstを使用する必要があるためです。
align_debugの結果を表示 ランドマークが見つからないか、ターゲットの人物の顔に間違って配置されているすべてのフレームを見つけます。
それらの間違って整列した顔を脇に置くことで、「aligned_debug」フォルダーにコピーして、フレームがあり、
Windowsエクスプローラーでまだ強調表示されている間にそれらを削除するには削除キーを押しますが、
手動で特定する必要のあるものもあります(まったく検出されなかったすべての顔など)
特に、長いクリップに多くの誤って配置された顔があり、それらが通常正しく配置された顔の中央にある場合、それらに気づきにくい場合があります。
方法は次のとおりです。
  • data_dstを任意の方法(ヒストグラム、ブラー、ヨーなど)でソートして、不良フレームを見つけます。
  • 次に、それらを「新しいフォルダー」にコピーします
  • オリジナルの「aligned」 を別の名前 ( 「aligned_1」など)に変更し、 悪い顔の「new folder」の名前を 「aligned」に変更します
  • 次に5.3.otherを使用します)data_dst util元のファイル名を回復します
  • 終了後 、元の名前と_0 / _1などのプレフィックスを持つすべての悪い顔を持つ「aligned」フォルダに移動します
  • Shiftキーを押しながら右クリックし、powershellを開いてこのコマンドを使用します:
get-childitem *.jpg | foreach {rename-item $_ $_.name.replace("_0","")}
  • 異なるプレフィックスを持つファイルがさらにある場合は、_0を_1のような他のプレフィックスに変更してコマンドを再度実行します。
get-childitem *.jpg | foreach {rename-item $_ $_.name.replace("_1","")}
  • この方法では、これらの不良なアライメントされたフレームを"aligned_debug"にコピーすることができ ます。強調表示
(多くの不適切な配置がある場合に便利)
  • 最後に、不良なフレームフォルダー「aligned」を削除し、「aligned1」の名前を元の名前に戻します。

あなたは私の技術を使用したり、すべて手動で見つかった場合はどんなに、あなたは今をすべきであるアン 5。 5)data_dstは 、
「aligned_debug」から削除したばかりの顔を抽出するために、顔を手動で再削除し、ALIGNED_DEBUGを抽出します 。
それが完了したら、data_dstデータセットを クリーンアップし、すべての顔を正しく抽出し(部分的に見えるものを含む)、トレーニングの準備をします。

21. Q:コンバーター/マージを使用して変換/マージした後、一部またはすべてのマージされたフレームに元の/dstの顔が表示されます。

A:コンバーターモードがオーバーレイまたは「オリジナル」以外のモードに設定されていることを確認し、data_dst.mp4ファイルのすべてのフレームの顔を揃えていることを確認してください。

一部のフレームで元の顔しか表示されない場合は、対応するフレームから検出/位置合わせされていないため、さまざまな理由で発生する可能性があります
:顔が見えにくい極端な角度、ブラー/モーションブラー、障害物など全体的には、常にdata_dst.mp4のすべての顔を揃える必要があります。
これを修正するには、「aligned_debug」フォルダーに移動し、顔にランドマークのないフレームが表示される場合は削除します。
5.1 を使用すると、このフォルダーをすばやく閲覧できます ) data_dstビューalign_debugの結果
変換中またはマージされたフォルダー内の元の顔が表示されているフレームに対応する "data_dst/aligned_debug"フォルダーから画像ファイルを削除し、
5)data_dst extract faces MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGを使用して手動で再抽出します

顔がまったく表示されない/元の顔のみが表示される場合(常にオーバーレイモードまたはrawモードで確認)、「data_dst / aligned」フォルダーのコンテンツ全体が失われる可能性があります。

すべてを行った場合、「data_dst / aligned」フォルダーにすべての整列された顔があり、コンバーターは適切なモードに設定され、元の顔のみが表示されるので、おそらくいくつかのエラーが発生しています約
  • その場合は、PCを再起動するか、DFL2.0の別のバージョンを試してください。

Q:トレーニングするとき、これらの0.2513 0.5612の 数値はどういう意味ですか?

A:これらは損失値です。それらは、モデルがどれだけうまく訓練されているかを示しています。
ただし、値にある程度落ち着いた後、値の急上昇(上下)が見られない場合は、プレビューウィンドウに焦点を合わせ、歯の分離、美容マーク、鼻、目などの詳細を探して、焦点を合わせるべきではありません
それらはシャープで見栄えが良く、何も心配する必要はありません。
モデルの崩壊を防ぐためにSAEHDモデルをトレーニングするときは、常に勾配クリッピングを使用することを忘れないでください。

23. Q:理想的な損失値とは何ですか、どのように低/高損失値が必要ですか?

A:それはすべて設定、データセット、さまざまな要因に依存します。
通常、サンプルのランダムワープ (および 勾配クリッピング) を除き、すべての機能を無効にしてトレーニングを行います。
常に有効にする必要があります)約0.3〜0.35の損失まで、そこからランダムワープを無効にし、約0.1〜0.2までトレーニングを続けることができますが、
プレビューだけを見て、数値からだけでなく、そこからいつ停止するかを判断する必要があります値(使用する設定によって異なる場合があります)。

24. Q:モデルが崩壊しましたが、どうにかして回復できますか?

A:いいえ。最初からやり直すか、作成した場合はバックアップを使用する必要があります。

25. Q:どのマスクタイプを使用すればよいですか?学んだ?Dst?ファンデスト?それとも他の何か?これらのマスクタイプは何を意味し、どのマスクタイプが最適ですか?
顔の障害物(顔、手、指、その他のもの)をマスクする方法。

A:DFLには多くのマスキングオプションが組み込まれていますが、どのオプションが最適で使用すべきかは、達成しようとしているものによって異なります。

まず、学習したマスクを使用するには、モデルの起動中(新しいモデルのトレーニングを開始するとき)に有効にする必要があります。
トレーニング中に無効にして、コンバータで学習したマスクを選択しようとすると、dst maskオプションと同じように見えます。

learned: トレーニング中に顔の形を学習することで最良の結果を得ようとするマスクです。

dst: dst顔の形状から派生したマスクです(位置合わせ/抽出プロセス中に位置合わせされた顔画像に埋め込まれたランドマークに基づきます)。

FAN-prd: 予測された顔の形状に基づいたマスクです。
また、手、指、眼鏡などの障害物を顔から取り除くように訓練されています。場合によっては見た目が悪くなる可能性があります。
dstよりもsrcフェイスの形状を維持する必要があります。

FAN-dst: dstの顔の形状に基づいたマスクです。また、手、指、眼鏡など、顔から障害物を取り除くように訓練されています。
通常、非常に安定した一貫したマスクを提供しますが、srcよりもdstの顔の形状を維持します。

FAN-prd * FAN-dst:は、予測された顔形状とdst顔形状に基づいたマスクであり、両方の間のマスクを平均しようとします。
また、手、指、眼鏡など、顔から障害物を除去するように訓練されています

learn * FAN-prd * FAN-dst:上記の+訓練中に学んだこと技術的には最も優れた正確なマスキング方法ですが、変換が最も遅く、トレーニング中に学習マスクを有効にする必要がありますが、
パフォーマンスのペナルティはわずかです。

私は個人的にFAN-dstまたはFAN-prd * FAN-dstまたはlearned * FAN-prd * FAN-dstを使用することをお勧めします。
FAN-prdは変な/悪いマスクを生成するためお勧めしません。
data_dstの顔に障害物がなく、極端な側面角度はありません。
dstの代わりに学習を使用することもできます(再び、顔に障害物がない場合、障害物が存在する場合のみ-FANマスクを使用します)。

ヒント:トレーニングで学習マスクを使用すると、少し遅くなりますが、トレーニング中に有効化および無効化して、オフにしてトレーニングを開始し、
トレーニングの最後または途中で有効にしないようにすることができます
トレーニングの初期段階が遅すぎる。

26. Q:有名人のフェイスセットを使用してトレーニングし、さらにフェイス/画像/フレームを追加したい場合はどうすればよいですか?
既存のsrc/source/celebrityデータセットにさらに多様性を追加する方法は?

A:最も安全な方法は、「data_src」フォルダー全体の名前を別の名前に変更するか、一時的に別の場所に移動してから、新しいdata_src.mp4ファイルからフレームを抽出するか、
既にフレームを抽出していくつかの写真を用意している場合、新しいフォルダー "data_src"を作成し、その中にコピーしてdata_src抽出/位置合わせプロセスを実行し、
古いdata_src / alignedフォルダーから位置合わせされた画像を新しいフォルダーにコピーします。
すべてのファイルを保持し、古いファイルを新しいファイルに置き換えないようにファイルの名前を変更します。

27. Q:dst faceset/data_dst.mp4もシャープで高品質である必要がありますか?dst faceset/dataset/data_dstの一部の顔が少しぼやけたり、影が付いたりすることはありますか?
data_dst / alignedフォルダ内のぼやけた顔をどうするか

A:data_dstをできるだけシャープにし、モーションブラーをできるだけなくしたい場合。
data_dstのぼやけた顔はいくつかの問題を引き起こす可能性があります:
  • 1つ目は、特定のフレームの顔の一部が検出されないことです
  • これにより、変換中に適切な位置合わせができなかったため、これらのフレームに元の顔が表示されます手動で抽出する必要があります。
  • 2番目は、他の人が間違って整列される可能性があることです
  • これにより、このフレームの最終的な顔が回転/ぼやけてしまい、すべて間違って見えるだけで、他のぼやけた顔と同様に、トレーニングと変換に使用するために手動で整列する必要があります。
  • 第三-場合によっては手動で位置合わせしても、顔を正しく検出/位置合わせできない場合があります。これにより、元の顔が対応するフレームに表示されます。
  • モーションブラーを含む、または正しく整列されたぼやけた(シャープではない)顔は、トレーニングで使用されるモデルがモーションブラーを理解できないため、悪い結果を生む可能性があります。
口のような顔の特定の部分は大きく/広く見える場合があります
または単に異なる場合、モデルはこれをそのパーツの形状/外観の変化として解釈するため、予測された顔と最終的な偽の顔の両方が不自然に見えます。
これらのぼやけた顔をトレーニングデータセット(data_dst/alignedフォルダー)から削除し、別の場所に置いてから、変換する前にdata_dst/alignedフォルダーにコピーして、
スワップされた顔がそれらのぼやけた顔に対応するフレームに表示されるようにする必要があります。
動きのある顔の奇妙な外観に対抗するために、マージ内でモーションブラーを使用できます
(ただし、顔の1つのセットが「data_dst / aligned」フォルダーにあり、すべてのファイルが_0プレフィックスで終わる場合のみ機能しません)。

srcデータセットとdstデータセットの両方を可能な限り鮮明で高品質にする必要があります。
いくつかのフレームのわずかなぼやけは、多くの問題を引き起こさないはずです。
影に関しては、これは私たちが話している影の量に依存します。
小さな明るい影はおそらく表示されません。
顔の影で良い結果を得ることができますが、多くは悪いように見えます。
できるだけシャープで暗い影をできるだけ少なくして、均等に。

28. Q:ディープフェイクをmp4に変換してmp4に変換しようとすると、reference_file not foundエラーが発生します。

[b] A: "workspace"フォルダーにdata_dst.mp4ファイルがありません。削除されていないかどうかを確認してください:

それが必要な理由は、 3)extractで個々のフレームに分割したにもかかわらず 「data_dst」フォルダ内にあるすべてのビデオdata_dst FULL FPSからの画像はビデオのフレームだけであり、
元のdata_dst.mp4ファイルから取得されたサウンドも必要です。

29. Q:data_dst.mp4ファイルを誤って削除して復元できません。マージ/変換されたフレームをmp4ビデオに変換できますか?

A:はい、data_dst.mp4を完全に削除し、回復または同一ファイルをレンダリングする方法がない場合、ffmpegと適切なコマンドを使用して手動でmp4に変換できます(音声はありませんが)。
  • フォルダー...:\_internal\ffmpegに移動して開始し、ffmpeg.exeをコピーします
  • マージしたフォルダーに貼り付けます-windows キー+ r(実行)を押してコマンドラインを開き、cmdを入力するか、windowsを押してから検索しますキーと入力cmd /
cmd.exe-マージしたフォルダーのアドレスをコピーします(例:D:\DFL\workspace\data_dst\merged)
  • コマンドラインで、ドライブの文字を入力します。上記の例では「d:
  • Enterキーを押します-行D:\>が表示されます。次に「cd:FULL_ADDRESS」と入力します。例:" cd:D:\workspace\data_dst\merged "
  • アドレス全体が表示されます。これ:D:\ DFL\workspace\data_dst\merged>
  • 次のコマンドを入力します。

ffmpeg -r xx -i%d.jpg -vcodec libx264 -crf 20 -pix_fmt yuv420p result.mp4
  • xxはフレームレート
  • dはファイル名に含まれる数字の量を表す数値なので、マージされたフレームの名前は15024.jpgのようになります5235.jpgの
場合は5、4の場合などです。画像がpngの場合、.jpgを.pngに変更します。
crfは品質設定です。20のままにしておくのが最適
です。out12345.jpgのように、%記号の前に「out」を追加します。

「out_2315.png」という名前のフレームを「deepfake」という名前の30 fps .mp4ファイルに変換するコマンドの例。

ffmpeg -r 30 -i out%4.png -vcodec libx264 -crf 20 -pix_fmt yuv420p deepfake.mp4


30. Q:マージを一時停止して、後で再開できますか?合併設定を保存できますか?マージに失敗しました/マージ中にエラーが発生し、%でスタックしました。
もう一度開始して、最後に正常にマージされたフレームからマージできますか?

A:はい。デフォルトでは、インタラクティブコンバーター/マージは、進行状況と設定の両方を保存する「モデル」フォルダーにセッションファイルを作成します。

トレーニングを一時停止する場合は、>を押すと一時停止します。
ただし、完全にオフにする/ PCを再起動する必要がある場合は、escとのマージを終了し、進行状況を保存するのを待って、次にマージを開始したときに、
インタラクティブなマージ/コンバーター(Y / N)を選択します
  • Y保存/セッションファイルを使用して進行を再開するかどうかを尋ねるプロンプトが表示されます。
マージは、適切な設定で適切なフレームに読み込まれます。

マージに失敗し、進行状況が保存されなかった場合は、手動で再開する必要があります。
最初に「data_dst」フォルダーをバックアップし、次に「aligned」フォルダーからすべての抽出されたフレームとすべての画像を削除します
フォルダー「merged」内で既に変換/マージされたフレームに対応する「data_dst」内。
次に、マージ/コンバーターを開始し、前に使用した設定を入力して残りのフレームを変換し、新しいマージされたフレームをバックアップ「data_dst」フォルダーの古いフレームと結合し、
通常どおり.mp4に変換します。

31. Q:トレーニング中のプレビューの顔はきれいに見えますが、変換後は顔が悪く見えます。元の顔の一部(顎、眉毛、二重顔の輪郭)が見えます。

A:
そのため、顔の形状が異なる場合、またはわずかに小さい/大きい場合、DFLマージによって作成されるマスクの周囲/外側に元の顔の一部が表示される場合があります。
修正するには、変換設定を変更する必要があります。
  • マスクタイプの調整タイプ

については、質問:どのマスクタイプを使用する必要がありますか?を参照してください。

学んだ?Dst?ファンデスト?それとも他の何か?これらのマスクタイプは何を意味し、どのマスクタイプが最適ですか?顔の障害物(顔、手、指、その他のもの)をマスクする方法。
  • マスクの侵食(サイズ)とぼかし(フェザリング、エッジのスムージング)を

調整します-顔のサイズ(スケール)を調整します

注:負の侵食はマスクサイズを大きくし(より多くをカバー)、正に小さくします。

32. Q:最終結果/ディープフェイクに奇妙なアーティファクトがあり、顔が色を変え、背景から色がにじみ、シームレスモードを使用しているときに、ちらつき/暗く/角の色を変更します。

A:シームレス/履歴/シームレス+履歴オーバーレイモードを使用しているか、照明条件を変えてソースデータセット/ファセットを使用してモデルをトレーニングし、
トレーニング中にカラー転送を使用しませんでした。
  • オーバーレイ/シームレス/履歴/シームレス+履歴以外のモードを使用する
  • シームレスを使用する場合:-マスク/顔のサイズを小さくして、外側の領域に「触れない」ようにし、結果として「Erode Mask」 値を増やして、顔/頭の外側の背景/領域の色 。
  • または、マスク/顔の端を 「 色の変化の一部を隠す可能性のある値は、マスクサイズを小さくすると、「シームレス」に見えるようになります。
上記の単純なオーバーレイモードを引き続き使用する場合は、これらの両方で問題を解決できる場合とできない場合があります。

ソースデータセットにさまざまな照明条件の顔の画像が含まれていて、色変換を使用していなかった場合は、色変換を有効にして戻ってさらにトレーニングを続ける必要があります。
オンにすると、色がひどく洗い流されたり、トレーニングデータ/顔の色に悪い影響(色の塗りつぶし、間違った色、彩度の高い色、ノイズ)が生じたり、
学習した顔がぼやけたりする(モデルの変化が多すぎるため)ソースデータセットとターゲットデータセットに新しい顔があるかのように全体を学習する必要があります
)ランドマークデータを保存し、ソースデータセットの色を編集して、ターゲットデータセットとよりよく一致し、バリエーションも少なくすることができます(質問#18の答えの説明 )。

絶対に必要な場合を除き、シームレスを使用しないことをお勧めします。その場合でも、すべての主要な角度とカメラのシフト/ライトの変更で停止して、
アーティファクトが発生しないことを確認することをお勧めします。

33. Q:半顔、中半顔、全顔、全顔のface_typeモードの違いは何ですか?

A:

顔全体は顔/頭全体をカバーする新しいモードです。
つまり、額全体だけでなく、フルフェイスモードで切り取られる可能性のある髪の毛やその他の機能もカバーします。
またはハーフフェイスモード。
また、トレーニング中に、masked_trainingと呼ばれる額をトレーニングできる新しいオプションが付属しています 。
まず、有効にして起動し、トレーニングマスクを顔全体にクリップします。
顔が十分にトレーニングされたら、無効にして顔/頭全体をトレーニングします。
このモードでは、ポストでの手動マスキングが必要であり、他のモードのようにマージ/変換で自動的にマスクすることはできません。
フルフェイスは、必要のないもの(ヘアライン、額、頭のその他の部分)なしで、できるだけ多くの顔をカバーするために推奨されるface_typeモードです。

H64およびH128モデルでは、ハーフフェイスモードがデフォルトのface_typeモードでした。
顔の半分のみ(口から眉の下まで)をカバーします。
半分の顔は、半分の顔よりも約30%広い領域をカバーするモードです。

34. Q:ディープフェイクに最適なGPUは何ですか?GPUをアップグレードしたいのですが、どちらを入手すればよいですか?

A: これに対する答えは、ディープフェイクソフトウェアがさらに開発され、GPUがより強力になるにつれて変化しますが、現在のところ、最高のGPUは、ほとんどのVRAMを搭載し、一般的には最適なGPUです。

パフォーマンスの数値については、SAEスプレッドシートを確認してください。

推奨最小値は6GBのVRAM 10シリーズGPU(1060 6GB)-128〜160の解像度に適しています。
高解像度モデル(160-192)の場合、少なくとも8GB VRAM搭載の10/20シリーズGPU(1070/2070)以上を使用することをお勧めします。
最高解像度(192-256)の場合、11GB以上のVRAM 10/20シリーズGPU(1080Ti、2080Ti、RTX Titan)以上が必要になる場合があります。

トレーニングのパフォーマンスはトレーニング中に使用される設定に依存することに注意してください。完全に有効な(すべての機能がオンの)128 DFモデルは、192 DFHDモデルよりも動作が遅くなります。

35. Q:AutoEncoder、Encoder、Decoder、およびD_Mask_Decoderのdims設定は何をしますか?それらを変更するとどうなりますか?

A: AutoEncoder、Encoder、Decoder、およびD_Mask_Decoder dimsは、モデルのニューラルネットワークの次元に影響します。

これらを変更してパフォーマンスまたは品質を向上させることができます。
高に設定すると、モデルのトレーニングが非常に難しくなります(低速、高vram使用)が、より正確な結果と顔のように多くのsrcが得られ、低に設定するとパフォーマンスが向上します
しかし、結果はあまり正確ではなく、モデルは顔の特定の特徴を学習しない可能性があり、dstに似ているか、dstまたはsrcのように見えない一般的な出力が得られます。

AutoEncoderの寸法 (32-1024?:help): これは学習する全体的なモデルの能力です。
値が低すぎると、すべてを学習できなくなります。
値を高くすると、モデルはより多くの表現を学習でき、パフォーマンスを犠牲にしてより正確になります。

エンコーダーの寸法 (16-256?:help): これは 、異なる表現、顔の状態、角度、照明条件を学習するモデルの能力に影響します。
値が低すぎると、モデルは特定の表現を学習できない場合があり、モデルは目を閉じていない可能性があり、口、一部の角度の精度がそれほど正確ではない可能性があり、
値が高いと、AEの調光がそれに応じて増加することを前提として、より正確で表現力のあるモデルになります パフォーマンスのコスト。

デコーダーの寸法 (16-256?:help):これはモデルが細かいディテール、テクスチャ、歯、目を学習する能力に影響します
  • 顔を詳細に認識できるようにする小さなことです。
値が低すぎると、一部の詳細が学習されなくなり(歯や目がぼやけて見える、テクスチャーが不足するなど)、
微妙な表情や顔の特徴/テクスチャーが適切に学習されない可能性があり、結果として顔を見るようなsrcが少なくなり、値が高くなりますは顔をより詳細にし、
モデルはパフォーマンスを犠牲にしてこれらの微妙な詳細をより多く拾うことができます。

デコーダマスクの寸法 (16-256?:help): 学習マスクを有効にしてトレーニングを行う場合、学習マスクの品質に影響します。
トレーニングの質には影響しません。

外部リンク




寄付(任意)について

Amazon.jpギフト券での寄付は受け付けています
  1. AmazonでE-Mailタイプのギフト券を購入(金額は任意)
  2. 自分のアカウントに登録はしない
  3. 下記メールアドレスにAmazonギフト券番号を記載し、通知
  4. tomoe.magica@gmail.com


Seesaa Wiki関連リンク

コメントをかく


「http://」を含む投稿は禁止されています。

利用規約をご確認のうえご記入下さい

どなたでも編集できます