最終更新:
tomoe_magica 2021年03月25日(木) 13:20:07履歴
============ 変更ログ ============
== 23.03.2021 ==
SAEHD:random_flipオプションはに置き換えられました
random_src_flip(デフォルトはオフ)
ランダム水平フリップSRCフェイスセット。 より多くの角度をカバーしますが、顔は自然に見えない場合があります
random_dst_flip(デフォルトはオン)
ランダム水平フリップDSTフェイスセット。 srcランダムフリップが有効になっていない場合、src-> dstの一般化が改善されます。
フェイスセットサイズ変更ツールを追加しました
4.2)data_src util faceset resize.bat
5.2)data_dst util faceset resize.bat
トレーニング中のCPU負荷を減らすために、モデルの解像度に一致するようにフェイスセットのサイズを変更します。
元の顔を保つことを忘れないでください。
== 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
すべてのGANオプション:
ガンパワー
ニューラルネットワークに顔の細部を学習させる。
顔がlr_dropout(on)とrandom_warp(off)で十分にトレーニングされている場合にのみ有効にし、無効にしないでください。
値が高いほど、アーティファクトの可能性が高くなります。典型的な細かい値は0.1です
GANパッチサイズ(3-640)
パッチサイズが大きいほど、品質が高くなり、より多くのVRAMが必要になります。
最も低い設定でも、よりシャープなエッジを得ることができます。
典型的な細かい値は解像度/ 8です。
GANの寸法(4-64)
GANネットワークの次元。
寸法が大きいほど、より多くのVRAMが必要になります。
最も低い設定でも、よりシャープなエッジを得ることができます。
通常の細かい値は16です。
異なる設定の比較:
== 01.01.2021 ==
「2080TI以前」のビルドが再び存在します。
== 22.12.2020 ==
トレーニングデータの読み込み時間が大幅に短縮されました。
== 20.12.2020 ==
SAEHD:
lr_dropoutをAdaBeliefで使用できるようになりました
目の優先度は目と口の優先度に置き換えられます
「エイリアンアイ」や間違った目の方向など、トレーニング中の目の問題を修正するのに役立ちます。
また、歯のディテールをより高くします。
新しいモデルの新しいデフォルト値:
Archi:「liae-ud」
AdaBelief:有効
== 18.12.2020 ==
これで、すべてのビデオカードのシングルビルドになります。
アップグレードTensorflow 2.4.0、CUDA 11.2、CuDNN 8.0.5。
何もインストールする必要はありません。
== 11.12.2020 ==
アップグレードTensorflow 2.4.0rc4
RTX3000シリーズをサポートするようになりました。
Compute Capability3.0のビデオカードはサポートされなくなりました。
AVXのないCPUはサポートされなくなりました。
SAEHD:新しいオプションが追加されました
AdaBelief オプティマイザーを使用し ますか?
実験的なAdaBeliefオプティマイザー。より多くのVRAMが必要ですが、モデルの精度が高く、lr_dropoutは必要ありません。
== 2020年8月2日==
SAEHD:random_warpがデフォルトで事前トレーニングモードで無効になりました
Merger:モデルファイルがない場合のxsegの読み込み時間を修正
== 2020年7月18日==
修正
SAEHD:write_preview_historyがより速く機能するようになりました
プレビューが保存される頻度は、解像度によって異なります。
たとえば、64x64-10 Iterごと。 448x448 – 70 Iterごと。
Merger:「Number of workers?」オプションを追加
処理するスレッドの数を指定します。
低い値はパフォーマンスに影響を与える可能性があります。
値が大きいと、メモリエラーが発生する可能性があります。
この値は、CPUコアを超えることはできません。
== 2020年7月17日==
SAEHD:
事前トレーニングデータセットは、高品質のFFHQデータセットに置き換えられます。
「学習率ドロップアウト」オプションのヘルプの変更:
顔が十分に訓練されたら、このオプションを有効にして、シャープネスを高め、サブピクセルシェイクを減らして反復回数を減らすことができます。
「ランダムワープを無効にする」前とGANの前に有効にします。 n無効。 yが有効
CPUでCPUが有効になっています。 これにより、余分なVRAMを使用する必要がなくなり、反復時間が20%犠牲になります。
GANオプションのヘルプの変更:
Generative Adversarial方式でネットワークをトレーニングします。
ニューラルネットワークに顔の細部を学習させる。
顔が十分に訓練されている場合にのみ有効にし、無効にしないでください。
通常の値は0.1です
GANの改善。 肌のディテールが改善され、パターン化された攻撃的なアーティファクトが少なくなり、より速く機能します。
== 2020年7月4日==
バグを修正します。
一部の5.XSeg)スクリプトの名前を変更しました。
GAN_powerのヘルプを変更しました。

== 2020年6月27日==
エクストラクター:
これで抽出を続行できますが、同じオプションを再度指定する必要があります。
「画像からの顔の最大数」オプションを追加しました。
多数の顔を持つフレームを持つsrcフェイスセットを抽出すると、
抽出を高速化するには、最大面を3に設定することをお勧めします。
0-無制限
「画像サイズ」オプションを追加しました。
画像サイズが大きいほど、顔のエンハンサーの動作は悪くなります。
ソース画像が十分鮮明で、顔を強調する必要がない場合にのみ、512より大きい値を使用してください。
1〜100の範囲で「JPEG品質」オプションを追加しました。 JPEG品質が高いほど、出力ファイルサイズが大きくなります
ソーター:ぼかしと最高の顔によるソートを改善しました。
== 2020年6月22日==
XSegEditor:
xsegオーバーレイマスクのホットキーを変更
「オーバーレイxsegマスク」がポリゴンモードで機能するようになりました

== 2020年6月21日==
SAEHD:
–d archiの解像度は、32で割り切れるように自動的に調整されるようになりました。
「uniform_yaw」がプレトレインモードで常に有効になりました。
サブプロセッサーが開始しない場合、エラーが書き込まれるようになりました。
XSegEditor:ラベル付けされた画像の誤った数を修正しました。
XNViewMP:ダークテーマはデフォルトで有効になっています
== 2020年6月19日==
SAEHD:
最大解像度が640に増加しました。
「hd」アーキは削除されました。 「hd」はサブピクセルシェイクを削除するために作成された実験的なアーキですが、「lr_dropout」と「ランダムワーピングを無効にする」はそれをより効果的に行います。
「uhd」は「-u」に名前が変更されました
dfuhdとliaeuhdは、既存のモデルではdf-uとliae-uに自動的に名前が変更されます。
同じ計算コストを使用して解像度を2倍にする新しい実験的アーキ(key -d)を追加しました。
これは、同じ設定がx2高速になることを意味します。たとえば、解像度を448に設定すると、224としてトレーニングされます。
ゼロからトレーニングせず、事前トレーニング済みモデルを使用しないことを強くお勧めします。
新しいアーキネーミング:
'df'は、より多くの同一性保持面を保持します。
「liae」は過度に異なる顔の形を修正できます。
'-u'は顔の類似度を高めました。
'-d'(実験的)同じ計算コストを使用して解像度を倍増
オプションは混合できます(-ud)
例:df、liae、df-d、df-ud、liae-ud、...
11GBでトレーニングされた448 df-udの最良の例ではありません。

GANトレーニングの改善(GAN_powerオプション)。 これはdstモデルに使用されましたが、実際にはdstには必要ありません。
代わりに、パッチサイズがx2小さい2番目のsrc GANモデルが追加されたため、高解像度モデルの全体的な品質は高くなります。
オプション「サンプルの均一なヨー分布(y / n)」を追加しました:
フェースセットに少量の側面があるため、ぼやけた側面を修正するのに役立ちます。
Quick96:
今ではdf-ud archiに基づいており、20%高速です。
XSegトレーナー:
改善されたサンプルジェネレータ。
これで、他のサンプルから背景がランダムに追加されます。
その結果、顔の外側の領域でランダムマスクノイズが発生する可能性が低くなります。
これで、2〜16の範囲で「batch_size」を指定できます。
XSegマスクを適用してサンプルのサイズを縮小しました。 したがって、xsegマスクが適用されたパックされたサンプルのサイズも縮小されます。
== 2020年6月12日==
トレーナー:「プレビュー履歴の画像を選択」を修正しました。 ここで、 'スペース'キーを使用してサブプレビューを切り替えることができます。
「プレビュー履歴の書き込み」を修正しました。 すべてのサブプレビューを別々のフォルダーに書き込むようになりました

最初のファイルの前に_last.jpgとして保存された最後のプレビューも

したがって、フォトビューアの最初のファイルで変更を簡単に確認できます
XSegEditor:ラベル付けされた画像全体のテキストラベルを追加
フレームラインのデザインを変更
ローディングフレームデザインの変更
== 2020年6月8日==
SAEHD:解像度> = 256に2番目のdssim損失関数が追加されました
SAEHD:lr_dropoutを「n」、「y」、「cpu」にできるようになりました。 「n」と「y」は以前と同じです。
「cpu」は、CPUで有効になっていることを意味します。これにより、余分なVRAMを使用する必要がなくなり、反復時間が20%犠牲になります。
fix errors
「ページングファイルが小さすぎるため、この操作を完了できません。」というエラーの可能性が減少しました。
XNViewMPを0.96.2に更新
== 2020年6月4日==
手動抽出:「Rマウスボタン」を使用して手動で顔の長方形を指定できるようになりました。
これは、小さくぼやけた、検出できない顔や動物の顔に役立ちます。

警告:
ランドマークは顔に正確に配置することはできず、実際には赤枠の配置に使用されます。
したがって、そのようなフレームはXSegワークフローでのみ使用する必要があります!
赤いフレームが隣接するフレームと同じになるようにしてください。
追加されたスクリプト
10.misc)CPUのみを作成する.bat
このスクリプトは、DeepFaceLabフォルダーを問題なくCPUで動作するように変換します。インターネット接続が必要です。
Colabでトレーニングし、GPUなしでコンプでインタラクティブにマージすると便利です。
== 2020年5月31日==
XSegEditor:「XSegマスクオーバーレイ面を表示」ボタンを追加
== 2020年5月6日==
いくつかの修正
SAEHD:UHD arhisを変更しました。 UHDモデルを最初から再トレーニングする必要があります。
== 2020年4月20日==
XSegEditor:バグを修正
Merger:バグを修正
== 2020年4月15日==
XSegEditor:描画モードでシフトを保持することにより、中央にビューロックを追加しました。
Merger:色変換「sot-m」:5〜10%の速度最適化
サンプルローダーの小さなバグを修正
== 2020年4月14日==
Merger:最適化
color transfer「sot-m」:色のちらつきは軽減されますが、処理時間がx5長くなります
マスクモード「learned-prd + Learned-dst」を追加: dstマスクと予測マスクの両方で最大の領域を生成します
XSegEditor:編集中にポリゴンが透明になりました
新しいサンプルdata_dst.mp4ビデオ
新しい公式ミニチュートリアルhttps://www.youtube.com/watch?v=1smpMsfC3ls
== 2020年4月6日==
16以上のCPUコアと大きなフェイスセットの修正。
XSegトレーナー用の5.XSeg)data_dst / data_srcマスクを追加
- remove.bat
抽出されたフレームからラベル付きのxsegポリゴンを削除します
== 2020年4月4日==
Windows 10の入力ダイアログのバグを修正
ディレクトリパスにスペースが含まれている場合のXSegEditorの実行を修正
SAEHD:「顔スタイルのパワー」と「背景スタイルのパワー」がWhole_faceで使用できるようになりました
これらのオプションの新しいヘルプメッセージ。
XSegEditor:「トレーニングされたXSegマスクを表示」ボタンを追加しました。これにより、マスク品質を向上させるためにどのフレームをマスクする必要があるかを確認できます。
merge:
「raw-predict」モードを追加しました。ニューラルネットワークから未加工の予測正方形画像を出力します。
「学習済み」のマスクモードは、3つの新しいモードに置き換えられました。
「learned-prd」予測された顔の滑らかな学習マスク
「learned-dst」DST面の滑らかな学習マスク
「learned-prd * learned-dst」両方の最小領域(デフォルト)
新しい顔のタイプを追加:頭
これで、ヘッドを交換できます。
例:https://www.youtube.com/watch?v=xr5FHd0AdlQ
要件:
Adobe After EffectsまたはDavinci Resolveの後処理スキル。
使用法:
1)頭の後ろに単調な背景がある適切なDSTフッテージを見つける
2)「抽出ヘッド」スクリプトを使用する
3)1つのシーンのみから豊富なsrcヘッドセットを集めます(同じ色とヘアカット)
4)XSegエディターを使用してsrcとdstの頭全体をマスクする
5)XSegのトレーニング
6)トレーニング済みのXSegマスクをsrcおよびdstヘッドセットに適用する
7)「head」face_typeを通常のディープフェイクモデルとしてDF archiを使用してSAEHDをトレーニングします。トレーニング済みモデルを頭に使用できます。ヘッドの最小推奨解像度は224です。
8)Mergerを使用して複数のトラックを抽出します:
a. Raw-rgb
b. XSeg-prdマスク
c. XSeg-dstマスク
9)AAEまたはDavinciResolveを使用して、以下を実行します。
a. XSeg-prdマスクを使用してソースヘッドを非表示にする:コンテンツアウェアフィル、クローンスタンプ、バックグラウンドリトラクション、またはその他の手法
b. XSeg-dstマスクを使用して新しいヘッドをオーバーレイ
警告:ヘッドフェイスセットは、XSegマスキングでのみ、whole_face以下のタイプのトレーニングに使用できます。
== 2020年3月30日==
新しいスクリプト:
5.XSeg) data_dst/src mask for XSeg trainer - fetch.bat
XSegポリゴンを含む面を、aligned_xseg \ dirにコピーします。
ラベルの付いた顔を収集して他の偽物で再利用する場合にのみ役立ちます。
これで、SAEHDトレーニングプロセスでトレーニング済みのXSegマスクを使用できます。
これは、ランドマークから取得されたデフォルトの「full_face」マスクが、トレーニングされたXSegモデルから取得されたマスクで置き換えられることを意味します。
使用する
5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-apply.bat
5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-remove.bat
通常は必要ありません。障害物で 'face_style'と 'bg_style'を使用したい場合は、これを使用できます。
XSegトレーナー:顔のタイプを選択できるようになりました
XSegトレーナー:「オーバーライド設定」でトレーニングを再開できるようになりました
merge:XSeg- *モードをすべてのタイプの面で使用できるようになりました。
したがって、古いMaskEditor、FANSEGモデル、およびFAN-xモードは削除されました。
新しいXSegソリューションの方が優れており、シンプルで便利です。通常のディープフェイクの手動マスキングは1時間だけです。
== 2020年3月27日==
XSegEditor:バグの修正、レイアウトの変更、現在のファイル名ラベルの追加
SAEHD:事前トレーニング済みのliaeモデルの使用を修正、顔のモーフィングが少なくなりました
== 2020年3月25日==
SAEHD:「dfuhd」と「liaeuhd」archiを追加
uhdバージョンは「HD」よりも軽量ですが、通常のバージョンよりも重いです。
liaeuhdはより「 srcのような」結果を提供します
比較
liae

liaeuhd

新しいXSegEditorを追加しました!
ここで新しいwhole_face + XSegワークフロー
XSegの モデル独自のマスク訓練することができますsegmentatorをするためにDST(および/またはSRC)の顔
これは、hole_faceのマージで使用されます。
事前トレーニングされた セグメンテーションモデル(存在しない)を使用する代わりに、
顔のどの部分をマスクするかを制御します。
新しいスクリプト
5.XSeg)data_dst edit masks.bat
5.XSeg)data_src edit masks.bat
5.XSeg)train.bat
使用法
パックされている場合は、dst フェースセットをアンパックします
5.XSegを実行)data_dst edit masks.bat
ボタンのツールチップを読む(en/ru/zn言語がサポートされています)
ポリゴンモードの包含または除外を使用して面をマスクします。
50/100の顔で繰り返し、
!!! あなたは、DSTのすべてのフレームを隠蔽する必要はありません
顔が大きく異なるフレームのみ、
用例
目を閉じた
頭の向きを変えた
光を変えた
あなたがマスクより多様な顔、あなたが得るより多くの品質
左上の領域からマスキングを開始し、時計回りの方向に従います。
たとえば、すべてのフレームで同じマスキングロジックを使用します。
顎が見えない側面の同じ近似顎ライン
同じヘアライン
ポリゴン除外モードを使用して、障害物をマスクします。
XSegを実行)train.bat
モデルを訓練する
XSeg dst facesプレビューの面を確認します。
一部の顔の マスクが間違っているかグリッチがある場合は、手順を繰り返します。
編集を実行
これらのグリッチな顔を見つけてマスクしてください
訓練ゼロからさらにまたは再起動の訓練を
XSeg モデルのトレーニングを再開するには、すべての「model \ XSeg _ *」ファイルを削除する必要があります。
マージで予測された顔のマスクを取得する場合(XSeg-prdモード)、
あなたは、のために、同じ手順を繰り返す必要があるSRC facesetを。
whole_faceのマージで使用可能な新しいマスクモード
XSeg-PRD - XSegの予測された顔のマスク- >から顔SRC facesetは、 標識されるべきです
XSeg-DST - XSeg用のマスクDSTの 顔- >から顔のDST facesetは、 標識されるべきです
XSeg-prd * XSeg-dst- 両方の最小面積
場合は、ワークスペース\モデルフォルダは、訓練を受け含まXSegのモデルを、そして合併は、それを使用します
それ以外の場合は、XSeg- *モードを使用して透明マスクを取得します。
いくつかのスクリーンショット
XSegEditor:

トレーナー

合併

13個のセグメント化されたdst面を使用した偽の例
https://i.imgur.com/wmvyizU.gifv
== 24.03.2020 ==
SAEHD: 'dfuhd'および 'liaeuhd' archiを追加
uhdバージョンは「HD」よりも軽いが、通常バージョンよりも重い。
liaeuhdはより「srcに似た」結果を提供します
比較:
liae:https ://i.imgur.com/JEICFwI.jpg
liaeuhd:https ://i.imgur.com/ymU7t5E.jpg
新しいXSegEditorを追加しました!
ここに新しいwhole_face + XSegワークフロー:
XSegモデルを使用すると、dst(および/またはsrc)顔用に独自のマスクセグメンテーションをトレーニングできます。
whole_faceの合併で使用されます。
事前学習済みのセグメンテーションモデル(存在しない)を使用する代わりに、
顔のどの部分をマスクするかを制御します。
新しいスクリプト:
5.XSeg)data_dst edit masks.bat
5.XSeg)data_src edit masks.bat
5.XSeg)train.bat
使用法:
パックされている場合はdstファセットをアンパックします
5.XSegを実行します)data_dst edit masks.bat
ボタンのツールチップを読む(en / ru / zn言語がサポートされています)
ポリゴンモードを含めるまたは除外するモードを使用して、顔をマスクします。
50/100顔について繰り返す、
!!! dstのすべてのフレームをマスクする必要はありません
顔が大きく異なるフレームのみ、
例えば:
目を閉じた
頭の方向を変えた
変化した光
マスクする顔が多ければ多いほど、品質が向上します
左上の領域からマスキングを開始し、時計回りの方向に従います。
すべてのフレームに対してマスキングの同じロジックを保持します。たとえば、次のとおりです。
顎が見えない側面の同じ近似顎線
同じヘアライン
ポリゴンの除外モードを使用して、障害物をマスクします。
XSeg)train.batを実行します
モデルを訓練する
XSeg dst faces」プレビューの顔を確認します。
一部の顔に間違ったマスクまたはグリッチのあるマスクがある場合は、手順を繰り返します。
編集を実行
これらのグリッチな顔を見つけて、それらをマスクします
さらにトレーニングするか、ゼロからトレーニングを再開する
XSegモデルのトレーニングを再開するには、すべての 'model \ XSeg_ *'ファイルを削除する必要があります。
マージで予測された顔のマスク(XSeg-prdモード)を取得するには、
src facesetに対して同じ手順を繰り返す必要があります。
whole_faceのマージで使用可能な新しいマスクモード:
XSeg- prd-予測された顔のXSegマスク-> src facesetの顔にラベルを付ける必要があります
XSeg-dst -dstフェイスのXSegマスク-> dstフェイスセットのフェイスにラベルを付ける必要があります
XSeg-prd * XSeg-dst-両方の最小面積
workspace \ modelフォルダーにトレーニング済みのXSegモデルが含まれている場合、合併はそれを使用します。
そうでない場合は、XSeg- *モードを使用して透明なマスクを取得します。
いくつかのスクリーンショット:
XSegEditor:https ://i.imgur.com/7Bk4RRV.jpg
トレーナー :https : //i.imgur.com/NM1Kn3s.jpg
merge :https : //i.imgur.com/glUzFQ8.jpg
13個のセグメント化されたdst顔を使用した偽の例
:https : //i.imgur.com/wmvyizU.gifv
== 18.03.2020 ==
Merger: fixed face jitter
== 15.03.2020 ==
グローバル修正
SAEHD:オプションlearn_maskが削除され、デフォルトで有効になりました
liaech arhiを削除
抽出された(整列された)PNGフェースのサポートが削除されました。古いビルドを使用して、PNGからJPGに変換します。
XSegモデルを追加しました。
XSegモデルを使用すると、dst(およびsrc)顔の独自のマスクセグメンテーション機能をトレーニングできます。
whole_faceのマージで使用されます。
事前学習済みモデル(存在しない)を使用する代わりに、
顔のどの部分をマスクするかを制御します。
ワークフローは簡単ではありませんが、現時点では最良のソリューションです
最小限の労力でwhole_faceのディープフェイクの最高品質を取得するため
AfterEffectsのロトスコープなし。
新しいスクリプト:
XSeg)data_dst edit.bat
XSeg)data_dst merge.bat
XSeg)data_dst split.bat
XSeg)data_src edit.bat
XSeg)data_src merge.bat
XSeg)data_src split.bat
XSeg)train.bat
使用法:
パックされている場合はdstフェイスセットをアンパックします
XSegを実行します)data_dst split.bat
このスクリプトは、ラベルツールで使用するためにjpgの顔から(以前に保存された).jsonデータを抽出します。
XSegを実行します)data_dst edit.bat
新しいツール「labelme」が使用されます
ポリゴン(CTRL-N)を使用して顔をマスクする
ポリゴンを含めるようにポリゴン「1」(1つのシンボル)に名前を付けます
ポリゴン「0」(1つのシンボル)を除外ポリゴンとして指定
「ポリゴンを含める」はすべて「ポリゴンを含める」後に適用されます
ホットキー:
ctrl-Nポリゴン作成
ctrl-J編集ポリゴン
フレーム間のA / Dナビゲート
Ctrl +マウスホイール画像ズーム
マウスホイール垂直スクロール
Alt +マウスの水平スクロール
10/50/100顔について繰り返します。
dstのすべてのフレームをマスクする必要はありませんが、
顔が大きく異なるフレームのみ、
例えば:
目を閉じた
頭の方向を変えた
変化した光
マスクする顔が多ければ多いほど、品質が向上します
左上の領域からマスキングを開始し、時計回りの方向に従います。
すべてのフレームに対してマスキングの同じロジックを保持します。たとえば、次のとおりです。
顎が見えない側面の同じ近似顎線
同じヘアライン
「0」という名前のポリゴンを使用して、障害物をマスクします。
XSegを実行します)data_dst merge.bat
このスクリプトは、ポリゴンの.jsonデータをjpgフェースにマージし、
したがって、facesetは通常どおりソートまたはパックできます。
XSegを実行します)train.bat
モデルを訓練する
「XSeg dst faces」プレビューの顔を確認します。
一部の顔に間違ったマスクまたはグリッチのあるマスクがある場合は、手順を繰り返します。
スプリット
編集を実行
これらのグリッチな顔を見つけて、それらをマスクします
マージ
さらにトレーニングするか、ゼロからトレーニングを再開する
XSegモデルのトレーニングを再開するには、すべての 'model \ XSeg_ *'ファイルを削除する必要があります。
マージ時に予測された顔のマスクを取得したい場合は、
src facesetに対して同じ手順を繰り返す必要があります。
whole_faceのマージで使用可能な新しいマスクモード:
XSeg-prd-予測された顔のXSegマスク-> src facesetの顔にラベルを付ける必要があります
XSeg-dst-dstフェイスのXSegマスク-> dstフェイスセットのフェイスにラベルを付ける必要があります
XSeg-prd * XSeg-dst-両方の最小面積
workspace \ modelフォルダーにトレーニング済みのXSegモデルが含まれている場合、マージはそれを使用します。
そうでない場合は、XSeg- *モードを使用して透明なマスクを取得します。
いくつかのスクリーンショット:
ラベルツール:

トレーナー:

合併:

13個のセグメント化されたdst顔を使用した偽の例
https://i.imgur.com/wmvyizU.gifv
== 07.03.2020 ==
復活
3.optional)data_dst images.batのノイズを除去します
dstビデオが非常にシャープな場合に適用します。
顔を抽出する前にdstイメージのノイズを除去します。
この手法は、ニューラルネットワークがノイズを学習しないようにします。
その結果、予測された顔のピクセルシェークが少なくなります。
SAEHD:
新しい実験アーキを追加
'liaech'-@chervoniyによって作成されました。 liaeに基づいていますが、よりsrcのような顔を生成します。
lr_dropoutは、事前トレーニングモードで無効になりました。
Sorter:
「ソース画像の顔の長方形サイズ」によるソートを追加
ソース画像の小さな顔が最後に配置されます
「最高の顔の高速化」によるソートを追加
「最良の顔」によるソートと同じ
ただし、顔はぼかしではなくsource-rect-areaでソートされます。
== 28.02.2020 ==
Extractor:
すべての顔の画像サイズは現在512です
抽出プロセス中のRuntimeWarningを修正
SAEHD:
最大解像度は現在512です
hdアーキテクチャを修正します。 一部のデコーダーの重みは以前に訓練されていません。
新しい最適化されたトレーニング:
すべての<batch_size * 16>サンプルに対して、
モデルは最大のエラーを含む<batch_size>サンプルを収集し、それらを再度学習します
したがって、ハードサンプルはより頻繁にトレーニングされます
「models_opt_on_gpu」オプションがmultigpusで利用可能になりました(以前は1 gpuのみ)
「autobackup_hour」を修正
== 27.02.2020 ==
Extractor:
すべての顔の画像サイズは現在512です
抽出プロセス中のRuntimeWarningを修正
SAEHD:
最大解像度は現在512です
hdアーキテクチャを修正します。 一部のデコーダーの重みは以前に訓練されていません。
新しい最適化されたトレーニング:
すべての<batch_size * 16>サンプルに対して、
モデルは最大のエラーを含む<batch_size>サンプルを収集し、それらを再度学習します
したがって、ハードサンプルはより頻繁にトレーニングされます
「models_opt_on_gpu」オプションがmultigpusで利用可能になりました(以前は1 gpuのみ)
「autobackup_hour」を修正
== 23.02.2020 ==
SAEHD:whole_faceタイプの事前トレーニングオプションが利用可能になりました
絶対差によるソートを修正
whole_faceのyaw / pitch / bestによるソートを修正
== 22.02.2020 ==
whole_faceのyaw / pitch / bestによるソートを修正
== 21.02.2020 ==
トレーナー:初期化の時間を短縮
merge:overlay + rctモードでの色のちらつきを修正
SAEHD:
追加オプションEyes priority(y / n)
「エイリアンアイ」のようなトレーニング中の目の問題の修正に役立ちます
間違った方向(特にHDアーキテクチャ)
ニューラルネットワークを強制して、より高い優先度で目を訓練します。
前/後

実験的なフェイスタイプ「whole_face」を追加
基本的な使用方法:

「whole_face」には、Adobe After Effectsのスキルが必要です。
whole_faceを使用するには、次を使用してwhole_faceを抽出する必要があります。
4)data_srcはwhole_faceを抽出します
そして
5)data_dstはwhole_faceを抽出します
画像は512の解像度で抽出されるため、通常のfull_faceおよびhalf_faceに使用できます。
「whole_face」は、トレーニングスクエアの額を含む顔全体をカバーします。
しかし、トレーニングマスクはまだ「full_face」です
そのため、Adobe After Effectsで手動の最終マスキングと合成が必要です。
オプション 'masked_training'が追加されました
このオプションは、 'whole_face'タイプでのみ使用できます。
デフォルトはオンです。
マスクされたトレーニングは、トレーニングエリアをfull_faceマスクにクリップします。
したがって、ネットワークは顔を適切に訓練します。
顔が十分に訓練されたら、このオプションを無効にしてフレームのすべての領域を訓練します。
「raw-rgb」モードでマージし、Adobe After Effectsを使用して、手動でマスクし、色を調整し、額を含む顔全体を作成します。
== 03.02.2020 ==
「Enable autobackup」オプションは、
「Autobackup every N hour」0..24(デフォルト0は無効)、N時間ごとにプレビュー付きの自動バックアップモデルファイル
Merger::
「show alpha mask」が「V」ボタンになりました
「super resolution mode」は、
「T」「G」ボタンで変更できる
「super resolution power」(0..100)
デフォルトのerode/blurは0です。
新しい複数の顔の検出ログ:

使用可能なすべてのCPUコアを使用するようになりました(最大6以前)
プロセッサが多いほど、プロセスは高速になります。
== 02.02.2020 ==
Merger:
「アルファマスクを表示」が「V」ボタンになりました
「super resolution mode」は、
「T」「G」ボタンで変更できる「super resolution power」(0..100)
デフォルトのerode/blur値は0です。
新しい複数の顔の検出ログ:

使用可能なすべてのCPUコアを使用するようになりました(最大6以前)
プロセッサが多いほど、プロセスは高速になります。
== 01.02.2020 ==
Merger:スピードアップ。改善された品質
SAEHD:デフォルトのアーキテクチャは 'df'になりました
== 30.01.2020 ==
use_float16オプションを削除
MultiGPUトレーニングを修正
= 29.01.2020 ==
MultiGPUトレーニング:
CUDNN_STREAMエラーを修正しました。
速度が大幅に向上します。
トレーナー:キー 'b'が追加されました。自動バックアップが無効になっている場合でもバックアップを作成します。
== 28.01.2020 ==
最適化された顔サンプルジェネレーター、CPU負荷が大幅に削減
プレトレーニングモードを無効にした後の履歴の更新プレビューの修正
SAEHD:
新しいオプションを追加
GANパワー0.0 .. 10.0
敵対的生成ネットワークで訓練します。
ニューラルネットワークに、顔の細部を学習させる。
このオプションはいつでも有効/無効にできますが、
しかし、ネットワークが十分に訓練されたときに有効にする方が良いでしょう。
典型的な値は1.0
プリトレインモードのGANパワーは機能しません。
81k iter + 5k iterでGANを有効にする例


dfhd:デフォルトのデコーダー寸法は48
256 resのプレビューが正しく表示されるようになりました
モデルの命名/名前変更/削除を修正
AfterEffectsの後処理に関係する人々の改善:
AfterEffectsおよびビデオプレーヤーで正しく使用するために、コーデックはx264に戻されます。
マージは常にワークスペース\ data_dst \ merged_maskにマスクを出力するようになりました
raw-rgbを除くrawモードを削除
raw-rgbモードは、選択された面mask_modeを出力するようになりました(スクエアマスクの前)
「アルファマスクのエクスポート」ボタンは「アルファマスクの表示」に置き換えられます。
フレームを再計算せずにアルファマスクを表示できます。
8)「merged * .bat」は「result_mask」も出力するようになりました。ビデオファイル。
8)「マージされたロスレス」はx264ロスレスコーデックを使用するようになりました(PNGコーデックの前)
result_maskビデオファイルは常にロスレスです。
したがって、AfterEffectsでresult_maskビデオファイルをマスクレイヤーとして使用できます。
== 25.01.2020 ==
TFバージョン1.13.2にアップグレードしました
ほとんどのグラフィックカードの初回起動時の待機を削除しました。
トレーニングの速度が10〜20%向上しましたが、すべてのモデルを最初から再トレーニングする必要があります。
SAEHD:
オプション 'use float16'が追加されました
実験オプション。 モデルサイズを半分に縮小します。
トレーニングの速度を上げます。
モデルの精度を低下させます。
モデルが崩壊するか、訓練されない場合があります。
モデルは、大きな解像度でマスクを学習しない場合があります。
このオプションはいつでも有効/無効にできます。
true_face_trainingオプションは次のように置き換えられます
「真の顔の力」。 0.0000 .. 1.0
実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。
比較-

== 23.01.2020 ==
SAEHD:clipgradオプションを修正
== 22.01.2020 ==破壊的な変更!!!
最も弱いリンクを取り除く-AMDカードのサポート。
したがって、すべてのニューラルネットワークコードベースは純粋な低レベルTensorFlowバックエンドに転送されます。
AMD / Intelカードのサポートが削除され、DFLはNVIDIAカードまたはCPUでのみ動作するようになりました。
1.0としてマークされた古いDFLは引き続きダウンロードできますが、サポートされなくなります。
グローバルなコードのリファクタリング、修正、最適化
抽出器:
処理するGPU(またはCPU)を選択できるようになりました
4GB未満のGPUの安定性の向上
マルチGPU初期化の速度を向上
ワンパスで動作するようになりました(手動モードを除く)
したがって、古い3回目のパスの前に何か問題が発生しても、処理されたデータを失うことはありません。
Facesetエンハンサー:
処理するGPU(またはCPU)を選択できるようになりました
トレーナー:
モデルをトレーニングするGPU(またはCPU)を選択できるようになりました。
マルチGPUトレーニングがサポートされるようになりました。
同じカードを選択してください。そうしないと、高速GPUは反復ごとに低速GPUを待機します。
現在のワークスペース/モデル/フォルダで、以前のオプション入力をデフォルトとして記憶するようになりました。
サンプルジェネレータの数が利用可能なプロセッサの数と一致するようになりました
保存されたモデルには、GPUインデックスの代わりに名前が付けられます。
したがって、保存されたすべてのモデルのGPUを切り替えることができます。
トレーナーは、デフォルトで最新の保存モデルを選択することを提案しています。
ダイアログを使用して、モデルの名前を変更または削除できます。
モデルは、適切にトレーニングを続行するために、オプティマイザーの重みをモデルフォルダーに保存するようになりました
SAEHD、Quick96を除くすべてのモデルを削除
DFL 1.0のトレーニング済みモデルファイルは再利用できません
AVATARモデルも削除されました。
このビデオのようにアバターを作成する方法は? https://www.youtube.com/watch?v=4GdWD0yxvqw
1)ターゲットビデオでセレブと同じ頭の方向を繰り返す自分のスピーチで自分をキャプチャする
2)ターゲットビデオのセレブの顔をsrcとして、顔をdstとして通常のディープフェイクモデルをトレーニングする
3)raw-rgbモードでセレブの顔を顔にマージします
4)AfterEffectsでターゲットビデオでマスクされた口を構成する
SAEHD:
現在、3つのオプションがあります:エンコーダー寸法、デコーダー寸法、デコーダーマスク寸法
現在4つのarhisがあります:dfhd(デフォルト)、liaehd、df、liae
dfとliaeはSAEモデルのものですが、SAEHDモデルの機能を使用します(損失の組み合わせやランダムワープの無効化など)
dfhd / liaehd-エンコーダー/デコーダーアーキテクチャーの変更
デコーダーモデルはマスクデコーダーモデルと結合されます
マスクトレーニングはフェイストレーニングと組み合わされ、
結果は、反復ごとの時間を短縮し、オプティマイザーによるvram使用量を削減します
「CAウェイトの初期化」がより高速になり、「モデルの初期化」プログレスバーに統合されました。
optimizer_modeオプションを削除
「GPUにモデルとオプティマイザーを配置しますか?」オプションを追加
1つのGPUでトレーニングすると、デフォルトでモデルとオプティマイザーの重みがGPUに配置され、プロセスが加速されます。
CPUに配置して余分なVRAMを解放できるため、より大きなモデルパラメーターを設定できます。
このオプションは、MultiGPUモードでは使用できません。
事前トレーニングでRGBチャネルシャッフルを使用しないようになりました
事前トレーニングを今すぐ続行できます
事前トレーニングが無効になっている場合:
1)itersと損失履歴は1にリセットされます
2)df / dfhd archisでは、エンコーダーのインターパートのみがリセットされます(エンコーダー+インターの前)
したがって、偽物は事前訓練されたdfモデルでより速く訓練されます
合併(Converterから改名):
処理するGPU(またはCPU)を選択できるようになりました
フレームの構成をナビゲートおよびオーバーライドするための新しいホットキーの組み合わせ
超解像アップスケーラー「RankSRGAN」は「FaceEnhancer」に置き換えられました
FAN-xマスクモードは、マージ中(GPU上)で動作するようになりました(CPU上で)
したがって、すべてのモデル(メイン顔モデル+ FAN-x + FaceEnhancer)
マージ中にGPUで動作するようになり、2GB GPUでも正常に動作するようになりました。
Quick96:
事前学習済みモデルを自動的に使用するようになりました
選別機:
1つのsort.batを除くすべてのsort。*。batファイルを削除
ここで、ダイアログでソート方法を選択する必要があります
その他:
すべてのコンソールダイアログがより便利になりました
初心者向けの新しいデフォルトのサンプルビデオファイルdata_src / data_dst(Elon MuskのRobert Downey Jr.)
XnViewMPは0.94.1バージョンに更新されます
ffmpegは4.2.1バージョンに更新されました
ffmpeg:ビデオコーデックがx265に変更されました
_internal / vscode.batはVSCode IDEを起動し、DeepFaceLabソースコードを表示および編集できます。
ロシア語/英語のマニュアルを削除しました。ここでコミュニティのマニュアルとチュートリアルを読む
https://mrdeepfakes.com/forums/forum-guides-and-tu...
新しいgithubページのデザイン
== 11.01.2020 ==
サンプル読み込み時のフリーズを修正
== 08.01.2020 ==
サンプルジェネレーターの修正と最適化
Quick96を修正し、OpenCLビルド用にSAEHDからlr_dropoutを削除しました。
CUDAビルドは、2GB VRAMを搭載したローエンドGPUで動作するようになりました。
== 29.12.2019 ==
編集されたマスクを含むフェイスのフェイスセットエンハンサーを修正
同じDFLフォルダーでさまざまなgpusを使用する場合の長い負荷を修正
整列していない顔の抽出を修正
avatar:avatar_typeはデフォルトで頭のみになりました
== 28.12.2019 ==
FacesetEnhancerはaligned_enhanced /をaligned /にマージするように要求するようになりました
手動抽出で検出された0個の顔を修正
Quick96、SAEHD:最適化されたアーキテクチャ。 トレーニングを再開する必要があります。
現在、ビルドはCUDA(9.2ベース)とOpenclの2つのみです。
== 2019年12月26日==
Fix マスクエディター
FacesetEnhancerを追加しました
4.2.other)data_src util facesetは最高のGPU.batを強化します
4.2.other)data_src util faceset enhanced multi GPU.bat
FacesetEnhancerは、ソースフェイスセットの詳細を大幅に増やします。
ギガピクセルエンハンサーと同じですが、完全自動モードです。
OpenCLビルドでは、CPUのみで動作します。
前/後

== 2019年12月23日==
抽出:顔が見つからないフレームで2番目のパスがより速くなりました
すべてのモデル:オプション「src_scale_mod」および「ターゲットとしてヨーでサンプルをソート」を削除
必要に応じて、ヨーで並べ替えた後、src facesetから不要な角度を手動で削除できます。
最適化されたサンプルジェネレーター(CPUワーカー)。現在では、RAMの消費量が少なくなり、動作が高速になりました。
追加しました
4.2.other)data_src / dst util faceset pack.bat
/ aligned /サンプルを1つの/aligned/samples.pakファイルにパックします。
その後、すべての顔が削除されます。
4.2.other)data_src / dst util faceset unpack.bat
面を/aligned/samples.pakから/ aligned / dirに解凍します。
その後、samples.pakは削除されます。
パックされたファセットのロードと作業の高速化。
== 2019年12月20日==
一部のシステムのエクストラクタの3番目のパスを修正
顔変換マトリックスのより安定した正確なバージョン
SAEHD:lr_dropoutがオプションになり、デフォルトで無効になりました
顔が十分に訓練されたら、このオプションを有効にして、反復回数を減らして余分なシャープネスを取得できます
追加しました
4.2.other)data_src util faceset metadata save.bat
data_src \ aligned \フェイスのメタデータをdata_src \ aligned \ meta.datに保存します
4.2.other)data_src util faceset metadata restore.bat
「meta.dat」から画像にメタデータを復元します
画像サイズが元と異なる場合、自動的にサイズ変更されます
Topaz Gigapixelソフトウェアを使用して、srcフェイスセットの顔の詳細を大幅に強化できます。
前/後の例

トレントからダウンロードしてくださいhttps://rutracker.org/forum/viewtopic.php?t=575711...
ワークフローの例:
1) 'data_src util faceset metadata save.bat'を実行します
2)Topaz Gigapixelを起動する
3) 'data_src \ aligned \'を開き、すべての画像を選択します
4)出力フォルダーを 'data_src \ aligned_topaz'に設定(保存ダイアログでフォルダーを作成)
5)スクリーンショット

2倍、4倍、または6倍のアップスケールレートを選択できます
6)プロセスイメージを開始し、完全なプロセスを待つ
7)フォルダーの名前変更:
data_src \ aligned-> data_src \ aligned_original
data_src \ aligned_topaz-> data_src \ aligned
8)「data_src \ aligned_original \ meta.dat」を「data_src \ aligned \」にコピーします
9) 'data_src util faceset metadata restore.bat'を実行します
画像は元のサイズ(256x256)に縮小され、詳細が保持されます
メタデータが復元されます
10)これで、新しい拡張Facesetを使用する準備が整いました!
== 2019年12月15日==
SAEHD、Quick96:
モデルの一般化、全体的な精度、シャープネスの改善
論文https://arxiv.org/abs/1912.00144の新しい「学習率ドロップアウト」テクニックを使用して
赤い矢印の後にこの機能が有効になっている損失ヒストグラムの例:

== 12.12.2019 ==
結果の品質が低いためFacesetRelighterを削除
absdiffによるソートを追加
これは、すべての面のピクセルごとの絶対差によるソート方法です。
オプション:
同様に並べ替えますか? (y / n?:help skip:y):
「n」を選択すると、ほとんどの異なる顔が最初に配置されます。
「ソート順」を「ソート順」に変更
OpenCL:一部のAMDカードの抽出機能を修正
== 2019年12月11日==
FacesetRelighterの修正と改善:
今、あなたは3つの方法があります:
1)手動で光の方向を定義します(Google Colab用ではありません)
デモを見るhttps://youtu.be/79xz7yEO5Jw
2)1つのランダムな方向でファセットを再照明する
3)事前に定義された7方向のファセットを再照明する
== 2019年11月14日==
コンバーター:新しいカラー転送モードを追加:mix-m
== 2019年11月13日==
SAE、SAEHD、コンバーター:
sot-mカラー転送を追加
コンバータ:
seamless2モードを削除
FacesetRelighter:
手動ピッカーに強度パラメーターが追加されました。
「1つのランダムな方向」と「事前定義された7つの方向」は、0.3〜0.6のランダムな強度を使用します。
== 2019年11月11日==
FacesetRelighterを追加しました:
DeepPortraitRelighterネットワークを使用して再ライティングすることにより、既存の顔から新しい顔を合成します。
リライトされた顔により、ニューラルネットワークは顔の影をより良く再現します。
したがって、完全に照らされたフェイスセットからシャドウフェースを合成できます。

その結果、暗い顔のより良い偽物:

を介して動作する
data_xはリライトされたfaces.batを追加します
data_xはリライトされたfaces.batを削除します
OpenCLビルドでは、RelighterはCPUで実行されます
== 09.11.2019 ==
エクストラクタ:互換性の理由で「S3FDの高速化」を削除
コンバータ:
クラッシュを修正
役に立たない「ebs」カラー転送を削除
色の劣化の変更されたキー
追加された画像はノイズ除去により劣化します-ノイズ除去されたdata_dst.batと同じです。
ただし、このオプションはインタラクティブコンバーターで直接制御できます。
追加された画像はバイキュービックダウンスケール/アップスケール経由で劣化します
SAEHD:
dfのデフォルトのae_dimsが256になりました。256ae_dims以上の解像度でSAEHDをトレーニングしても安全です。
最近の偽物の例:https://youtu.be/_lxOGLj-MC8
Quick96モデルを追加しました。
これは、ローエンドの2GB + NVidiaおよび4GB + AMDカードの最速モデルです。
モデルにはオプションがなく、96pixフルフェイスをトレーニングします。
簡単なディープフェイクデモに適しています。
RTX2080Tiで15分でトレーニングされたプレビューの例:

== 2019年10月27日==
抽出:AMDカードの修正
== 2019年10月26日==
顔の配置の赤い正方形に、画像の上方向を示す矢印が含まれるようになりました
側面のアライメントを修正
https://i.imgur.com/pEoZ6Mu.mp4の前
https://i.imgur.com/wO2Guo7.mp4の後
トレーニングデータが提供されない場合のメッセージを修正
== 2019年10月23日==
ファイナルによる並べ替えの強化:ヨー方向だけでなく、顔が均等に分散されるようになりました。
ピッチでも
「sort by vggface」:VGGFaceモデルを使用した顔の類似性によるソートが追加されました。
最初の実行には4GB以上のVRAMとインターネット接続が必要です。
== 2019年10月19日==
11GB +カードの抽出バグを修正
== 2019年10月15日==
修正「同じ顔を2回検出できる場合のバグを修正」を削除
SAE / SAEHD:
オプション 'apply random ct'が削除されました
追加オプション
色転送モードはsrcフェイスセットに適用されます。 (none / rct / lct / mkl / idt、?:help skip:none)
dstサンプルに近いsrcサンプルの色分布を変更します。すべてのモードを試して最適なものを見つけてください。
以前はlctモードでしたが、一部のfacesetで正しく機能しない場合があります。
== 2019年10月14日==
同じ顔を2回検出できるバグを修正
エクストラクターは、顔のブレを軽減します。しかし、2回目のパスは25%遅くなりました
前/後:https://imgur.com/L77puLH
SAE、SAEHD:「ランダムフリップ」および「学習マスク」オプションはオーバーライドできるようになりました。
常に 'learn_mask'を使用して、最初の2万回の反復のトレーニングを開始することをお勧めします
SAEHD:サンプルのランダムワープを有効にするオプションを追加、デフォルトはオン
ランダムワープは、両方の顔の表情を一般化するために必要です。
顔が十分に訓練されたら、それを無効にして反復回数を減らして余分なシャープネスを取得できます。
== 10.10.2019 ==
抽出およびトレーニングプロセスでの誤ったNVIDIA GPU検出を修正
11GB vram以上のGPUのS3FD初回パス抽出の速度が向上しました。
== 2019年10月9日==
2つ以上のGPUを備えたシステムでの誤ったNVIDIA GPUインデックスを修正
ラップトップでの誤ったNVIDIA GPU検出を修正
TrueFaceモデルを削除しました。
SAEHDモデル(高解像度スタイルオートエンコーダー)を追加しました
SAEと比較:

これは、2020年に最大限のディープフェイク品質を達成するためのハイエンドカード用の新しいヘビー級モデルです。
SAEとの違い:
- 新しいエンコーダーにより、より安定したフェースとスケールジッターの低減
- 新しいデコーダーはサブピクセルのクリアな結果を生成します
- ピクセル損失とdssim損失は一緒にマージされて、トレーニング速度とピクセルの真実性の両方を実現します
- デフォルトでは、ネットワークはCAの重みで初期化されますが、最初に成功した反復後のみです
- 新しいニューラルネットワークオプティマイザーは、以前よりも少ないVRAMを消費します
- オプションを追加<「true face」トレーニングを有効化>
変換前の最後の3万回の反復に対して有効にします。
- エンコーダーとデコーダーの調光は1つのパラメーターエンコーダー/デコーダーの調光にマージされます
- 半顔よりも30%多くの面積をカバーする中顔を追加しました。
truefaceなし:

trueface + 23k itersで:

== 24.09.2019 ==
TrueFaceモデルを修正し、再トレーニングが必要
== 2019年9月21日==
アバターモデルを修正
== 2019年9月9日==
SAE:警告、再トレーニングが必要です!
前回の更新からのモデルサイズが修正されました。
ランダムノイズでモデルを訓練することを強制するMLフレームワーク(keras)のバグを回避しました。
コンバーター:シャープネスと同じキーにぼかしを追加
新しいモデル「TrueFace」を追加しました。 NVIDIAカードのみ。
これはhttps://github.com/NVlabs/FUNITから移植されたGANモデルです
モデルは、ほぼゼロのモーフィングと高精細の顔を生成します。
モデルの故障率は他のモデルよりも高くなっています。
マスクは学習しないため、コンバーターではfan-xマスクモードを使用する必要があります。
srcとdstのファセットを同じ照明条件に保ちます。
== 13.09.2019 ==
コンバーター:新しいカラー転送モードを追加:mkl、mkl-m、idt、idt-m
SAE:効果がないため、マルチスケールデコーダーを削除
== 2019年7月9日==
抽出:グレースケール画像のバグを修正。
コンバータ:
これで、セッションがモデルフォルダーに保存されます。
ぼかしと侵食の範囲が-400 + 400に増加しました
hist-match-bwは、seamless2モードに置き換えられました。
「ebs」カラー転送モードが追加されました(Windowsでのみ動作します)。
FANSEGモデル(FAN-xマスクモードで使用)は、新しいモデル構成で再トレーニングされます
そして今、より良い精度とより少ないジッタを生成します
== 2019年8月30日==
対話型コンバータがセッションを保存するようになりました。
入力フレームが変更された場合(量またはファイル名)
その後、インタラクティブコンバーターは自動的に新しいセッションを開始します。
モデルがより訓練されている場合、すべてのフレームは保存された構成で再計算されます。
== 28.08.2019 ==
顔の位置合わせに使用される唇のランドマークを削除
結果はスケールのジッターが少ない
https://i.imgur.com/gJaW5Y4.gifvの前
https://i.imgur.com/Vq7gvhY.gifvの後
コンバータ:merged \ファイル名が修正され、data_dst \からの入力と100%同じになりました
X.batに変換:merged \ dirのファイル名を入力として適切に使用するようになりました
== 27.08.2019 ==
マージフォルダーのコンバーターナビゲーションロジックと出力ファイル名を修正
EbSynthプログラムを追加しました。 _internal \ EbSynth \フォルダーにあります
10)EbSynth.batから開始します
_internal \ EbSynth \ SampleProjectからロードされたサンプルプロジェクトで開始します
EbSynthは主にペイントされたビデオを作成するために使用されますが、EbSynthを使用すると、ディープフェイクプロセスによって生成されたいくつかの奇妙なフレームを修正できます。
前:https://i.imgur.com/9xnLAL4.gifv
後:https://i.imgur.com/f0Lbiwf.gifv
EbSynthの公式チュートリアル:https://www.youtube.com/watch?v=0RLtHuu5jV4
== 26.08.2019 ==
AVATARモデルのPDFマニュアルを更新しました。
アバターコンバーター:超解像オプションが追加されました。
すべてのコンバーター:
修正と最適化
超解像DCSCNネットワークは、RankSRGANに置き換えられました。
新しいオプションsharpen_modeとsharpen_amountが追加されました
== 2019年8月25日==
コンバーター:FAN-dstマスクモードがハーフフェイスモデルで機能するようになりました。
AVATARモデル:最初の起動時のデフォルトのavatar_typeオプションは現在HEADです。
ヘッドはソースよりもはるかに安定した結果を生成します。
AVATARモデルの更新された使用法:
使用法:
1)静的な背景のテーブルに座ってニュースレポーターのdata_src.mp4 10-20min平方解像度のビデオを配置し、
他の面はフレームに表示されません。
2)完全なfpsで「ビデオdata_src.batから画像を抽出する」処理
3)src_faceを制御する顔のdata_dst.mp4平方解像度ビデオを配置します
4)「ビデオdata_dst FULL FPS.batから画像を抽出する」処理
5)「data_srcマークがS3FDの最高のGPU.batに面する」プロセス
6)「data_dstが非整列面S3FDに最適なGPU.batを抽出する」プロセス
7)AVATAR.batステージ1をトレーニングし、バッチサイズをカードの最大値(6GBの場合は32)に調整し、50k + itersにトレーニングします。
8)AVATAR.batステージ2をトレーニングし、バッチサイズをカードの最大値(6GBの場合は4)に調整し、適切なシャープネスにトレーニングします。
9)AVATAR.batの変換
10)mp4.batに変換
== 24.08.2019 ==
インタラクティブコンバーターを追加しました。
インタラクティブコンバーターを使用すると、任意のフレームのパラメーターを変更し、リアルタイムで結果を確認できます。
コンバーター:motion_blur_powerパラメーターが追加されました。
モーションブラーは、事前に計算されたモーションベクトルによって適用されます。
したがって、動く顔はよりリアルに見えます。
RecycleGANモデルは削除されました。
実験的なアバターモデルを追加しました。最低限必要なVRAMは、NVIDIAでは6GB、AMDでは12GBです。
== 16.08.2019 ==
一部のシステムで「畳み込みアルゴリズムの取得に失敗しました」というエラーを修正
一部のシステムで「dllのロードに失敗しました」というエラーを修正
モデルの概要の書式が改善されました
フェイスマスクの拡大された眉毛ライン。 FAN-xコンバーターモードのマスクには影響しません。
ConverterMasked:サイドグラデーションと同じ、下部領域のマスクグラデーションを追加
== 2019年7月23日==
OpenCL:内部ライブラリのバージョンを更新します
== 2019年6月20日==
トレーナー:すべてのモデルにオプションを追加
自動バックアップを有効にしますか? (y / n?:help skip:%s):
過去15時間、1時間ごとにプレビュー付きの自動バックアップモデルファイル。 model / <> _ autobackups / 01にある最新のバックアップ
SAE:CUDAビルド専用のオプションを追加:
グラデーションクリッピングを有効にしますか? (y / n、?:help skip:%s):
勾配クリッピングは、モデルの崩壊の可能性を減らし、トレーニングの速度を犠牲にします。
== 02.06.2019 ==
大文字の値を入力する際のエラーを修正
== 24.05.2019 ==
OpenCL:FAN-xコンバーターを修正
== 20.05.2019 ==
OpenCL:モデルを保存するたびにopsの分析が繰り返されるバグを修正
== 10.05.2019 ==
モデルの事前トレーニングの作業を修正
== 08.05.2019 ==
SAE:新しいオプションを追加
srcフェイスセットにランダムカラー転送を適用しますか? (y / n、?:help skip:%s):
ランダムdstサンプルからのLCTカラー転送を適用して、srcサンプルの変動性を高めます。
これは「face_style」学習に似ていますが、より正確な色転写とモデル崩壊のリスクがなく、
また、追加のGPUリソースは必要ありませんが、srcフェイスセットがより多様になっているため、トレーニング時間が長くなる可能性があります。
== 05.05.2019 ==
OpenCL:SAEモデルが正しく機能するようになりました
== 05.03.2019 ==
修正
SAE:オプションのヘルプの追加情報:
ピクセル損失を使用する-このオプションを有効にするのが早すぎると、モデルが崩壊する可能性が高くなります。
顔スタイルのパワー-このオプションを有効にすると、モデルが崩壊する可能性が高くなります。
バックグラウンドスタイルのパワー-このオプションを有効にすると、モデルが崩壊する可能性が高くなります。
== 2019年5月1日==
SAE:「モデルの事前トレーニング」オプションを追加
大量のさまざまな面でモデルを事前トレーニングします。
この手法は、src / dstデータの過度に異なる顔の形と光の状態で偽物を訓練するのに役立つ場合があります。
顔はモーフィングされたように見えます。モーフ効果を減らすには、
一部のモデルファイルは初期化されますが、プリトレーニング後に更新されません:LIAE:inter_AB.h5 DF:encoder.h5。
モデルの事前トレーニングが長ければ長いほど、よりモーフィングされた顔が見えます。その後、トレーニングを保存して再度実行します。
== 04.28.2019 ==
AMD 8+コアプロセッサーでの3番目のパスエクストラクターのハングを修正
コンバーター:「lct」カラー転送を適用した後の色の低下に関するエラーを修正
すべてのモデルの初回実行時にオプションを追加:プレビュー履歴の画像を選択しますか? (y / nスキップ:n)
コントロール:[p]-次に、[enter]-確認。
ヨーによるオプションソートのエラーを修正しました。 DSTの顔に顎を覆う髪がある場合は、ヨーによる並べ替えを使用しないでください。
== 2019年4月24日==
SAE:最終的に崩壊が修正されました
追加オプション「CAの重みを使用しますか? (y / n、?:help skip:%s):
紙https://arxiv.org/abs/1702.06295の「Convolution Aware」の重みでネットワークを初期化します。
これにより、モデルの精度を高めることができますが、最初の実行には時間がかかります。
== 2019年4月23日==
SAE:トレーニングを再開する必要があります
モデルのリソースを大量に消費するため、「グレーの境界線を削除」オプションを削除します。
== 2019年4月21日==
SAE:
マルチスケールデコーダーを修正。
liae archiのトレーニングを再開する必要があります
「ヨーによるソート」オプションのヘルプを変更しました:
NNは、dstの顔の方向と一致しないsrcの顔の方向を学習しません。 dstの顔に顎を覆う毛がある場合は使用しないでください。
== 2019年4月20日==
TCCモードでのNVIDIAカードの動作を修正
コンバーター:FAN-xマスキングモードを改善しました。
現在、髪、指、眼鏡、マイクなどの顔の障害物は除外されています。
例https://i.imgur.com/x4qroPp.gifv
ハーフフェイスバージョンにはグリッチがあったため、フルフェイスモデルでのみ機能します。
Fansegは、マスクのさまざまな面で障害物のある3000以上のマスクエディターを使用して、手動で調整して訓練されます。
複雑な障害物を処理するためのファンセグの精度は、データセットにさらにサンプルを追加することで改善できますが、その時間はありません:(
データセットは公式のmega.nzフォルダーにあります。
偽物に、ファンセグが誤って認識する複雑な障害物がある場合、
偽物から手動でマスクされたサンプルをデータセットに追加できます
batファイルで--model DEV_FANSEG引数を使用して再トレーニングします。詳細については、データセットアーカイブをご覧ください。
ファンセグメントをトレーニングするための最小推奨VRAMは6GB、バッチサイズは24です。
結果model \ FANSeg_256_full_face.h5はDeepFacelab \ facelib \フォルダーに配置する必要があります
Google Colabは、Tesla T4 16GBで動作するようになりました。
Google Colaboratoryを使用すると、セッションごとに12時間モデルを自由にトレーニングし、セッションをリセットして最後の保存を続行できます。
Colabの使用方法の詳細:https://github.com/chervonij/DFL-Colab
== 04.07.2019 ==
抽出:整列されたフォルダーに削除されるファイルが含まれている場合の警告を追加しました。
コンバーターサブプロセスは最大6に制限されています
== 04.06.2019 ==
実験的なマスクエディタを追加しました。
FANSegモデルを改善するために作成されていますが、偽物で使用してみることができます。
ただし、品質の向上を保証するものではありません。
使用法:
5.4を実行します)data_dst mask editor.bat
障害物があるdst面のマスクを編集する
「学習マスク」または「スタイル値」のいずれかでSAEを訓練する
マスクエディターのスクリーンショット:

編集されたマスクを使用したトレーニングとマージの結果:

複雑なマスクは訓練が困難です。
SAE:
以前のSAEモデルはこのアップデートでは動作しません。
モデルが崩壊する可能性が大幅に減少しました。
モデルの精度が向上しました。
残差ブロックがデフォルトになり、このオプションは削除されました。
「学習マスク」を改善しました。
マスクされたプレビューの追加(スペースキーによる切り替え)
コンバータ:
シームレスモードでのrct / lctを修正
追加されたマスクモード(6)学習* FAN-prd * FAN-dst
ピクセル損失のヘルプメッセージを変更:
ピクセル損失は、細部を強調し、顔の色を安定させるのに役立ちます。時間の経過とともに品質が改善しない場合にのみ使用してください。
非プレビューモードでのctrl-cの終了を修正
== 2019年3月31日==
コンバーター:シームレスのぼかし領域を修正。
== 2019年3月30日==
固定シームレスジッター
削除されたオプションシームレスなジッター、シームレスな侵食マスク修飾子を抑制します。
シームレスな顔は適切にぼかし修飾子を使用します
追加されたオプション 'FAN-prd&dst'-乗算されたFAN prdとdstマスクを使用して、
== 2019年3月29日==
コンバーター:リファクタリングと最適化
新しいオプションを追加
超解像を適用しますか? (y / n skip:n):DCSCNネットワークを適用して詳細を強化します。
ビフォア/アフターgif-

== 2019年3月26日==
SAE:軽量エンコーダーを削除しました。
実行ごとにオプティマイザーモードをオーバーライドできるようになりました
トレーナー:損失ラインに保存後の平均損失値が表示されるようになりました
コンバーター:顔のないファイルをコピーする際のバグを修正しました。
XNViewMP:更新されたバージョン
スペースを含むパスのカットされたvideo.batを修正
== 2019年3月24日==
古いSAEモデルはこのアップデートでは動作しません。
一時的にSAEを折りたたむことができるバグを修正しました。
SAE:CAの重みとエンコーダー/デコーダーの調光を削除しました。
追加された新しいオプション:
エンコーダーはチャンネルごとに暗くなります(21-85?:help skip:%d)
より多くのエンコーダー調光は、より多くの顔の特徴の認識に役立ちますが、より多くのVRAMが必要です。 GPUに合わせてモデルサイズを微調整できます。
チャンネルごとにデコーダーが暗くなる(11-85?:help skip:%d)
より多くのデコーダー調光はより良い詳細を得るのに役立ちますが、より多くのVRAMを必要とします。 GPUに合わせてモデルサイズを微調整できます。
デコーダに残差ブロックを追加しますか? (y / n、?:help skip:n):
これらのブロックはより詳細な情報を取得するのに役立ちますが、より多くの計算時間を必要とします。
灰色の境界線を削除しますか? (y / n、?:help skip:n):
予測された顔のグレーの境界線を削除しますが、より多くのコンピューティングリソースが必要です。
ビデオから画像を抽出:追加オプション
出力画像フォーマット? (jpg png?:help skip:png):
PNGはロスレスですが、JPGよりもサイズがx10大きい画像を生成します。
JPG抽出は、特にSSDではなくHDDで高速です。
== 03.21.2019 ==
OpenCLビルド:修正され、ほとんどのビデオカードで再び動作するようになりました。
古いSAEモデルはこのアップデートでは動作しません。
一時的にSAEを折りたたむことができるバグを修正
追加されたオプション
CAの重みを使用しますか? (y / n、?:help skip:n):
「Convolution Aware」の重みでネットワークを初期化します。
これにより、より高い精度のモデルを実現できますが、最初の実行時に時間がかかります。
抽出器:
DLIBエクストラクターを削除
特にS3FD検出器でランドマーク抽出の精度が大幅に向上しましたが、2回目のパスの速度が遅くなりました。
この時点から、S3FD検出器のみを使用することをお勧めします。


コンバーター:フルフェイスモデルのマスクの種類を選択する新しいオプションが追加されました。
マスクモード:(1)学習、(2)dst、(3)FAN-prd、(4)FAN-dst(?)ヘルプ。デフォルト-1:
学習済み・モデルで「学習マスク」オプションを選択した場合、学習済みマスク。輪郭はかなり滑らかですが、ぐらつくことがあります。
Dst・dstフェースからの生マスク、不安定な輪郭。
FAN-prd・予測された顔の事前学習済みFANモデルのマスク。ガタガタしない非常に滑らかな郡。
FAN-dst・dst面の事前学習済みFANモデルのマスク。ガタガタしない非常に滑らかな郡。
FANマスクの利点:モデルごとに学習しなくても、ぐらつかない揺れを得ることができます。
FANマスクの欠点:顔が遮られると、輪郭にアーチファクトが生じる場合があります。
== 2019年3月13日==
SAE:新しいオプションを追加
オプティマイザーモード? (1,2,3?:help skip:1):
このオプションは、NVIDIAカード専用です。ニューラルネットワークのオプティマイザーモード。
1-デフォルト。
2-x2のより大きなネットワークをトレーニングでき、大量のRAMを使用します。
3-x3のより大きなネットワークをトレーニングでき、大量のRAMを使用し、30%遅くなります。
エポック用語は反復用語に名前が変更されました。
コンソールのトレーニングの文字列にタイムスタンプを表示する機能を追加
== 2019年3月11日==
CUDA10.1AVXユーザー-geforce.comサイトからビデオドライバーを更新します
顔抽出器:
新しいエクストラクタS3FDを追加-より正確で、AMD / IntelHD GPUで加速される誤検知の少ない顔(MTはそうではない)
DLIBを使用した最初のパスの速度が大幅に向上しました
すべての抽出器の偽陽性顔の量が減少しました
手動抽出:ヘルプ情報を非表示にする「h」ボタンを追加
システムのPythonインストールとDFLの競合を修正
コンソールログから不要なテンソルフロー情報を削除
更新されたmanual_ru
== 2019年3月7日==
修正
Python 3.6.8へのアップグレード
DFLフォルダーの構造を再編成しました。不要なファイルやその他のゴミを削除しました。
現在利用可能なビルド:
DFLCUDA9.2SSE-GTX10x0シリーズおよび64ビットCPUまでのNVIDIAカード用
DFLCUDA10.1AVX-AVX命令をサポートするRTXおよびCPUまでのNVIDIAカード用
DFLOpenCLSSE-AMD / IntelHDカードおよび64ビットCPU用
== 2019年3月4日==
追加しました
4.2.other)data_src util recover original filename.bat
5.3.other)data_dst util recover original filename.bat
== 2019年3月3日==
コンバーター:シームレスな修正
==古いchangelogについては、githubページをご覧ください==
src:source 源の略
dst:destination 目的地の略
extract :抽出
blur:ぼかす
similar:似た
pitch:傾斜度; 勾配、顔の上下向き具合
ヨーイング (yawing) とは、乗り物など前後・左右・上下が決まった物体が、上下を軸として(つまり、水平面内で)回転すること。ヨー (yaw) とも
なお、左右を軸にした回転がピッチング (pitching) またはピッチ (pitch)
brightness:明るさ、輝き、鮮明さ
hue:色合い、色調、色、特色、傾向
landmark:目印(となるもの)
SAE:Style Auto Encoderの略
FPS:Frame Per Second。フレームレート。1秒あたりのコマ数
dst:destination 目的地の略
extract :抽出
blur:ぼかす
similar:似た
pitch:傾斜度; 勾配、顔の上下向き具合
ヨーイング (yawing) とは、乗り物など前後・左右・上下が決まった物体が、上下を軸として(つまり、水平面内で)回転すること。ヨー (yaw) とも
なお、左右を軸にした回転がピッチング (pitching) またはピッチ (pitch)
brightness:明るさ、輝き、鮮明さ
hue:色合い、色調、色、特色、傾向
landmark:目印(となるもの)
SAE:Style Auto Encoderの略
FPS:Frame Per Second。フレームレート。1秒あたりのコマ数
DFLでの顔の範囲は、aligned_debugの顔画像のグレーの範囲
またはMask Editorでの顔画像のグレーの範囲
DFLでの顔のパーツの輪郭は、aligned_debugの顔画像の緑のもの
顔のパーツは、眉、目、鼻、口、髪のかかっていない頬から顎
顔のパーツ扱いでは無い物
髪、舌、耳、指、手など。上記顔のパーツ以外のもの
参考URL(雰囲気だけ把握すればいいかと)
またはMask Editorでの顔画像のグレーの範囲
DFLでの顔のパーツの輪郭は、aligned_debugの顔画像の緑のもの
顔のパーツは、眉、目、鼻、口、髪のかかっていない頬から顎
顔のパーツ扱いでは無い物
髪、舌、耳、指、手など。上記顔のパーツ以外のもの
参考URL(雰囲気だけ把握すればいいかと)
- CUDA Toolkit 10.1 ダウンロード、インストール
- CUDA Toolkit 9.2 ダウンロード、インストール
- cudnn ダウンロード、インストール
- Google検索
- Weblio コンピュータ用語 - Weblio辞書
寄付(任意)について
Amazon.jpギフト券での寄付は受け付けています
- AmazonでE-Mailタイプのギフト券を購入(金額は任意)
- 自分のアカウントに登録はしない
- 下記メールアドレスにAmazonギフト券番号を記載し、通知
- tomoe.magica@gmail.com
Seesaa Wiki関連リンク
タグ
このページへのコメント
よろしくお願いいたします。
よろしくお願いいたします。
初めまして、よろしくお願いいたします。