最終更新:ID:VQiq+mQiCA 2025年03月17日(月) 20:56:54履歴

浦島イラスト|参考プロンプト:https://majinai.art/ja/i/LmVqyND
WebUI:reForge
EasyReforgeを使ってワンクリックでインストールできる。日本語で丁寧に解説されているのでわかりやすい。
RTX5000シリーズはCUDAの対応バージョンが12.8以降のみで、PyTorchが非対応だった。のちにPyTorchのnightly buildにCUDA12.8対応版がリリースされ、いわゆるWebUI(AUTOMATIC1111及びその派生であるForge、Reforge)でもローカル画像生成環境の構築が可能になった(EasyReforgeは5000シリーズでも自動的に最適なPyTorchをインストールしてくれる)
Model:NoobAI-XL (NAI-XL)
EasyReforgeを使ってワンクリックでインストールできる。日本語で丁寧に解説されているのでわかりやすい。
RTX5000シリーズはCUDAの対応バージョンが12.8以降のみで、PyTorchが非対応だった。のちにPyTorchのnightly buildにCUDA12.8対応版がリリースされ、いわゆるWebUI(AUTOMATIC1111及びその派生であるForge、Reforge)でもローカル画像生成環境の構築が可能になった(EasyReforgeは5000シリーズでも自動的に最適なPyTorchをインストールしてくれる)
Model:NoobAI-XL (NAI-XL)
WebUI:ComfyUI
Stability Matrixを使って簡単にインストールできる。EasyHunyuanVideoで動画の生成もできるで
おそらく出来ることは一番多いが複雑な外観に眩暈する人を量産している
RTX5000シリーズを買えた幸せ者は下記リンクの最新版をインストール(本稿執筆時、上記リンクの安定版は動作しない)
https://github.com/comfyanonymous/ComfyUI/discussi...
ワークフロー集
Wiki
Model:
NoobAI-XL (NAI-XL)
FLUX.1(ワークフロー)
・https://huggingface.co/black-forest-labs/FLUX.1-de...
・https://huggingface.co/city96/FLUX.1-dev-gguf/tree...
Stability Matrixを使って簡単にインストールできる。EasyHunyuanVideoで動画の生成もできるで
おそらく出来ることは一番多いが複雑な外観に眩暈する人を量産している
RTX5000シリーズを買えた幸せ者は下記リンクの最新版をインストール(本稿執筆時、上記リンクの安定版は動作しない)
https://github.com/comfyanonymous/ComfyUI/discussi...
ワークフロー集
Wiki
Model:
NoobAI-XL (NAI-XL)
FLUX.1(ワークフロー)
・https://huggingface.co/black-forest-labs/FLUX.1-de...
・https://huggingface.co/city96/FLUX.1-dev-gguf/tree...
- はじめに
- とりあえず最新の環境を教えてクレメンス
- 目次
- 2025年
- 2025-03-17 Illustrious XL 2.0が公開される
- 2025-03-08 GeForce RTX50x0での画像生成AIの利用
- 2025-03-04 Hakomikan氏、新しいLoRA学習の手法「ADDifT」の解説記事を公開
- 2025-03-02 EasyWanVideoが公開される
- 2025-03-01 NovelAI Diffusion v4が正式リリースされる
- 2025-02-20 NVIDIA GeForce RTX 5070Tiが発売される
- 2025-02-11 Illustrious XL 1.0が公開される
- 2025-01-30 NVIDIA GeForce RTX 5090/5080が発売される
- 2025-01-28 Animagine XL 4.0が公開
- 2025-01-10 動画生成の波
- 2025-01-08 パルリアス作者ニキ、店じまいを宣言
- 2025-01-07 NVIDIAからGeForce RTX5000シリーズが発表される
- 2025-01-04 パルリアスv5が公開される
- 2024年
- 2024-12-28 スクリプト攻撃が行われる
- 2024-12-22 NoobAI-XL 1.0(v-prediction版)が公開される
- 2024-12-21 NovelAI Anime Diffusion V4 — Curated Previewがリリースされる
- 2024-12-09 外部記事による2024画像生成AIまとめ
- 2024-12-06 無断転載された画像を使わず学習されたモデル「Emi 3」が公開される
- 2024-12-03 Huggingfaceにアップロード容量の制限が設けられる
- 2024-11-27 ComfyUIのデスクトップ版が一般公開される
- 2024-11-26 ControlNetと画像編集ソフトを使った透視メガネが流行する
- 2024-11-24 最近Huggingfaceで公開されたモデル
- 2024-11-16 EasyReforgeが公開される
- 2024-11-15 スレの勢いが非常に高まる
- 2024-11-03 NoobAI 1.0が公開される
- 2024-10-30 Stable Diffusion 3.5 Mediumが公開
- 2024-10-22 Stable Diffusion 3.5 Largeが公開
- 2024-10-11 negpipがFLUX.1に対応
- 2024-10-08 NoobAI-XLのアーリーアクセス版が公開される
- 2024-09-30 Illustrious XL v0.1が正式に公開される
- 2024-09-07 ebara_ponyのリポジトリが消滅
- 2024-08-23 NovelAI Diffusion v1が公開される
- 2024-08-23 ebara_pony_3が公開される
- 2024-08-14 Grok-2がFLUX.1を採用する
- 2024-08-11 Forgeが大幅に機能強化される
- 2024-08-01 Black Forest Labsにより画像生成AIモデル「FLUX.1」発表
- 2024-07-24 Euler SMEAなどいくつかの新サンプラーが話題に挙がる
- 2024-07-23 CivitaiがSD3の禁止を解除
- 2024-07-18 AI Reviewersが流行
- 2024-07-09 Paints-UNDO公開
- 2024-07-08 PonyでのLoRA学習時スコアタグの使用について
- 2024-07-07 可能な限りA1111の変更点を取り込んだforgeのフォークが公開される
- 2024-07-06 Stability AIがSD3のライセンスを変更
- 2024-06-26 Open Model Initiativeが発足
- 2024-06-20 スレ発の手書きフォントが公開される
- 2024-06-19 ComfyUI、独立した団体を設立すると宣言
- 2024-06-18 CivitaiでSD3モデルおよび派生データの公開が一時停止
- 2024-06-13 Ponyは7の前に6.9を作ることに
- 2024-06-12 Stable Diffusion 3が一般公開
- 2024-06-10 ComfyUIのカスタムノード「Comfy_LLMVISION」にキーロガーが仕込まれていたとの報告
- 2024-06-09 Forgeが実験的リポジトリに変更されるとのアナウンス
- 2024-06-06 シード値の固定とHires.fixやAdetailerのオンを連動させる拡張機能が公開される
- 2024-06-05 謎漫画が流行する
- 2024-06-03 SD3のリリース日発表
- 2024-05-31 Omostが公開される
- 2024-05-31 画像からプロンプトを推測するツールなどが公開される
- 2024-05-19 3x3x3mixXLが公開される
- 2024-05-12 ebara_pony_2が公開される
- 2024-05-08 URLを含む書き込みで「もう余所でやってください。」と言われるケースが続出
- 2024-05-08 ic-lightが公開される
- 2024-04-27 cnlllite-anystyleが流行する
- 2024-04-23 Hyper-SD公開
- 2024-04-18 Stable Diffusion 3のAPIが公開される
- 2024-04-16 Adobe Premiere ProへのSoraの実装が発表
- 2024-04-12 なんJNVA部★382 どんぐりシステム有効化される
- 2024-03-23 Stability AIの主要メンバーが退社
- 2024-03-18 Animagine XL 3.1がリリース
- 2024-03-14 釈迦に説法構文
- 2024-03-13 Animagineでも埋め込みタグらしき挙動が判明
- 2024-03-12 本スレに激しいスクリプト爆撃
- 2024-03-12 Ponyに埋め込まれたタグの研究が盛んに
- 2024-03-01 sd-forge-layerdiffusionが公開される
- 2024-02-23 sd-danbooru-tags-upsamplerが公開
- 2024-02-22 Stable Diffusion 3発表
- 2024-02-22 NovelAIにバイブストランスファー機能が実装される
- 2024-02-20 ComfyUIがStable Cascadeに対応
- 2024-02-17 pixivでのAI画像BAN報告相次ぐ
- 2024-02-16 動画生成AI「Sora」発表
- 2024-02-13 Stable Cascade公開
- 2024-02-12 ZLUDAがリリース
- 2024-02-06 stable-diffusion-webui-forgeリリース
- 2024-01-19 Pony Diffusion V6 XLが話題になる
- 2024-01-11 Animagine XL 3.0が公開
https://www.illustrious-xl.ai/model/4
https://tensor.art/models/840365567832646761/
当初はウェブサービス上のみでのリリースとし、のちにアーリーアクセス、オープンソースと進むロードマップが示された。
https://tensor.art/models/840365567832646761/
当初はウェブサービス上のみでのリリースとし、のちにアーリーアクセス、オープンソースと進むロードマップが示された。
RTX50x0シリーズは当初ComfyUIのみ利用できる状況だったが、CUDAの暫定版アップデートがリリースされた結果、生成、学習とも利用できるアプリケーションが増えてきた。
- 生成:https://fate.5ch.net/test/read.cgi/liveuranus/1741... で「RTX5090で、StableDiffusion Automatic1111 を動かしてみた #automatic1111 - Qiita(PyTorchをCUDA 12.8対応のnightly buildに入れ替える)」と「GeForce RTX 5090でStable Diffusion 環境構築のメモ|suk1y4ki(EasyReforgeを利用)」が紹介された。
- 学習1:http://bbs.punipuni.eu/test/read.cgi/vaporeon/1739... で方法が紹介された。
656: 転載禁止🐤(プッチョイ kdMk-cAR3) sage 2025/03/08(土) 22:36:02.80 ID:x0NjaC1k 5070tiやけど学習動いたので雑メモ失礼(本スレ書けない) sd-sはvenv作り直してdev版torchを pip install --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cu128 で入れてその他は公式の手順でOK(torch2.7.0.dev20250306+cu128 torchvision0.22.0.dev20250307+cu128で確認) LECOはdev版torchに加えて、requirements.txtを一部変更 - transformers==4.33.1 + transformers==4.44.0 + huggingface-hub==0.24.5 traintrainはa1111にdev版torchで動いた 後はsageattentionとかその辺どうにかしないとやな…
723: 転載禁止🐔(プッチョイ kdMk-cAR3) sage 2025/03/12(水) 22:44:16.94 ID:OqU01l2Y >>707 Kohya_lora_param_guiの「B.手動インストール」という意味やった https://github.com/RedRayz/Kohya_lora_param_gui kohya_ssは使ってなかったんやけど下の手順で新規インストールしたら動いてるみたいや(シンプルな設定のxlのlora学習しか試してないけど) git clone --recursive https://github.com/bmaltais/kohya_ss.git cd kohya_ss py -3.10 -m venv venv .\venv\Scripts\activate pip install -U --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cu128 pip install -r requirements_windows.txt pip install -U accelerate==0.30.0 (xformersや8bit系を使う場合は追加) pip install --pre -U --no-deps xformers pip install -U bitsandbytes
https://github.com/Zuntan03/EasyWanVideo
Zuntan氏によるEasyシリーズで、WanVideoを使った動画生成の環境がセットアップされる。
メインメモリ32GBではスワップが発生しやすくSSDの寿命が短くなるとして、64GBが最低限ではという意見が多い。マザーボードの制限をチェックしつつ128GBやそれ以上にメモリを増設するユーザーが増えた。
Zuntan氏によるEasyシリーズで、WanVideoを使った動画生成の環境がセットアップされる。
メインメモリ32GBではスワップが発生しやすくSSDの寿命が短くなるとして、64GBが最低限ではという意見が多い。マザーボードの制限をチェックしつつ128GBやそれ以上にメモリを増設するユーザーが増えた。
https://novelai.net/
公開直後の様子では、プロンプトの効き方がv3から変わり、思い通りの画像を出力できないと感じるユーザーが多い模様。SMEAやバイブストランスファーが実装されていないことも一因か。
公開直後の様子では、プロンプトの効き方がv3から変わり、思い通りの画像を出力できないと感じるユーザーが多い模様。SMEAやバイブストランスファーが実装されていないことも一因か。
https://civitai.com/models/1232765
当初はモデルをダウンロードできず、CivitaiやTensor.art、PixAIといったWebサービス上でのみ画像を生成できる形式だったが、多くの批判の声を受けてか翌12日には10ドル支払うとダウンロードできるようになった。
当初はモデルをダウンロードできず、CivitaiやTensor.art、PixAIといったWebサービス上でのみ画像を生成できる形式だったが、多くの批判の声を受けてか翌12日には10ドル支払うとダウンロードできるようになった。
予約抽選サイトは混雑でほとんど閲覧できず、実店舗での抽選販売では大勢が殺到し店舗近隣の幼稚園に侵入する人が現れるなど混乱が見られた。
また初期出荷の台数はきわめて少なく、次期出荷は数か月後とみられる上にいくつかのメーカーは値上げを発表している。
なお、RTX5080及び5090は2025年2月13日時点でPytorchに対応するバージョンがないCUDA12.8以降にしか対応していないため、2025年2月13日時点現在ではEasyReforgeでの構築が不可能。
回避策・アップデートがあったら追記願います。
ComfyUIはhttps://github.com/comfyanonymous/ComfyUI/discussi... から50x0対応版をダウンロードできる。
また初期出荷の台数はきわめて少なく、次期出荷は数か月後とみられる上にいくつかのメーカーは値上げを発表している。
なお、RTX5080及び5090は2025年2月13日時点でPytorchに対応するバージョンがないCUDA12.8以降にしか対応していないため、2025年2月13日時点現在ではEasyReforgeでの構築が不可能。
回避策・アップデートがあったら追記願います。
ComfyUIはhttps://github.com/comfyanonymous/ComfyUI/discussi... から50x0対応版をダウンロードできる。
Hugging Face: https://huggingface.co/cagliostrolab/animagine-xl-...
ブログ: https://cagliostrolab.net/posts/animagine-xl-v4-re...
ローカルでSDXLが普及するきっかけとなったAnimagine-XLの新バージョンがリリースされた。
データセットが前バージョンから大幅に拡張されており、2025年1月7日までのデータを学習しているとのこと。
エッチなのも対応。
プロンプト関連の変更として新たにスコアタグが追加された。
今後、V4の改良とSD3.5ベースのAnimaestroの開発を進めるとのこと。
ブログ: https://cagliostrolab.net/posts/animagine-xl-v4-re...
ローカルでSDXLが普及するきっかけとなったAnimagine-XLの新バージョンがリリースされた。
データセットが前バージョンから大幅に拡張されており、2025年1月7日までのデータを学習しているとのこと。
エッチなのも対応。
プロンプト関連の変更として新たにスコアタグが追加された。
今後、V4の改良とSD3.5ベースのAnimaestroの開発を進めるとのこと。
動画生成の流れが最近きている
loraでこんなのが作れるで
https://fate.5ch.net/test/read.cgi/liveuranus/1736...
正直解説するほど詳しくないがとりあえず備忘録程度に情報をメモしとくで
・動画生成モデルHunyuanVideoの簡単インストーラー
EasyHunyuanVideo
なんJNVA部★498 https://fate.5ch.net/test/read.cgi/liveuranus/1736...
・HunyuanVideo用のLoRA学習スクリプト
musubi-tuner
https://x.com/kohya_tech/status/187405737260976561...

・有志の解説
HunyuanVideo用キャラクタLoRA作成の手順
なんJNVA部★498 https://fate.5ch.net/test/read.cgi/liveuranus/1736...
・musubi-tunerのGUI
Hunyuan Video Lora Trainning with GUI in Windows
loraでこんなのが作れるで
https://fate.5ch.net/test/read.cgi/liveuranus/1736...
正直解説するほど詳しくないがとりあえず備忘録程度に情報をメモしとくで
・動画生成モデルHunyuanVideoの簡単インストーラー
EasyHunyuanVideo
なんJNVA部★498 https://fate.5ch.net/test/read.cgi/liveuranus/1736...
28警備員[Lv.48][N武][N防] (ワッチョイ abb2-bDSa)垢版 | 大砲2025/01/07(火) 00:09:53.83ID:hvUOYtbR020 https://github.com/Zuntan03/EasyHunyuanVideo https://yyy.wpx.jp/EasyHunyuanVideo/Sample/ThisIsFine_Toga.mp4 (音注意) サンイチ!師走は立て込んどったんやが正月休みでEasyHunyuanVideoを用意したで FastVideo, SageAttention, TeaCacheの併用でGeforce RTX 3060 12GBでもそこそこ高速&省VRAMや 日本語プロンプトの英訳・LLMやTIPOでのプロンプト補完(イマイチ)・自動&手動モザイク・アップスケール・フレーム補間・MMAudio音声に対応してあるで NSFWサンプルは追々追加予定や
・HunyuanVideo用のLoRA学習スクリプト
musubi-tuner
https://x.com/kohya_tech/status/187405737260976561...

・有志の解説
HunyuanVideo用キャラクタLoRA作成の手順
なんJNVA部★498 https://fate.5ch.net/test/read.cgi/liveuranus/1736...
404今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった 警備員[Lv.5][芽] (ワッチョイ d3da-WhgO)垢版 | 大砲2025/01/07(火) 16:42:00.55ID:p/D/DW+T04 >>28より前の年明けからずっとHunyuanVideoをいじっていたので、Geforce 3060での アニメキャラクタ学習LoRAの作り方に関してまとめた文書を作ったよ rentry.co/howtousemusubituner 基本的にはmusubi-tunerのREADME.ja.mdそのままだけど、タグ付けや学習画像枚数等の データセットの作成と学習設定に関してはこの設定でうまくいくはず ダメだったらごめんね
・musubi-tunerのGUI
Hunyuan Video Lora Trainning with GUI in Windows
836 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった ハンター[Lv.331][UR武][SR防][苗] (オッペケ Sr4d-u+6e)[sage] 投稿日:2025/01/08(水) 17:33:04.31 ID:SXtJ11Ptr >>830 ファー 速攻で転載されて草 まぁv5は正直失敗作やから転載されてもそこまでという感じではあるけど ちな経過報告するといちおうシビタイに削除依頼は出したがそもそも返事ないな。ほったらかしやわ それと本人がモデルをアップしてアーカイブ化してても転載はできてしまうようなので運営が対処する以外に対処法はなさそう いちおう別モデルベースのv5亜種みたいなのは作ってたけどまた転載されそうで面倒くさそうやからパルパルは店じまいということで…すまんでみんな
Blackwell世代のGPUがNVIDIAから発表された。DLSS、Tensorコア、レイトレーシングコア、NVENC、NVDEC、メモリなどがそれぞれ新しい世代にバージョンアップしている。
https://www.nvidia.com/ja-jp/geforce/graphics-card...
https://www.nvidia.com/ja-jp/geforce/graphics-card...
- GeForce RTX 5090…\393,800より、VRAM32GB、メモリ帯域幅1,792GB/sec
- GeForce RTX 5080…\198,800より、VRAM16GB、メモリ帯域幅960GB/sec
- GeForce RTX 5070 Ti…\148,800より、VRAM16GB、メモリ帯域幅896GB/sec
- GeForce RTX 5070…\108,800より、VRAM12GB、メモリ帯域幅672GB/sec
- (参考)GeForce RTX 4090…VRAM24GB、メモリ帯域幅1,008GB/sec
人気モデルのパルリアスにv5が登場、スレが大いに盛り上がった。
公開を告知する書き込み:https://fate.5ch.net/test/read.cgi/liveuranus/1735...
公開場所のURL:https://huggingface.co/paruparu95483/paruparu_illu...
公開を告知する書き込み:https://fate.5ch.net/test/read.cgi/liveuranus/1735...
公開場所のURL:https://huggingface.co/paruparu95483/paruparu_illu...
v-predictionとZero Terminal SNRを使用することで明暗と色の表現が改善したもの。
上記の技術についてはModelsを参照
上記の技術についてはModelsを参照
外部記事
新清士の「メタバース・プレゼンス」 第87回 画像生成AIの進化が早すぎる 2024年に起きたことまとめ
2024年生成AIの進歩まとめ
スレとは関係ないが、2024年の画像生成AIに関する情報がコンパクトにまとめられているので、浦島が読むのにちょうど良い。
編注:ついこのまえ2023年のこの項目を追加したと思ったのに、もう一年経ってる。こわい
新清士の「メタバース・プレゼンス」 第87回 画像生成AIの進化が早すぎる 2024年に起きたことまとめ
2024年生成AIの進歩まとめ
スレとは関係ないが、2024年の画像生成AIに関する情報がコンパクトにまとめられているので、浦島が読むのにちょうど良い。
編注:ついこのまえ2023年のこの項目を追加したと思ったのに、もう一年経ってる。こわい
https://huggingface.co/aipicasso/emi-3
Emi 3 (Ethereal master of illustration 3) は、 オプトアウト済みモデルStable Diffusion 3.5 Largeをベースに AI Picasso社が開発したAIアートに特化した画像生成AIです。 このモデルの特徴として、Danbooruなどにある無断転載画像を追加に学習していないことがあげられます。
今まで容量無制限でモデルのアップロードが可能ということで多くのユーザーを集めていたHuggingFaceだったが、ついに容量制限がかけられた。
無課金ユーザーは500GB、課金ユーザーは1TBとのこと。
いつかこうなると身構えていたユーザーもいた一方、TB単位で有益なモデルをアップロードしていた複数のユーザーが上限にヒットするなど混乱も見られた。
(2024-12-11) その後、利用実態(upしたモデルが実際に使われているかなど)に合わせて追加ストレージ枠の付与などが行われつつ、現時点ではprivateリポジトリはfreeで100GB、proで1TB+従量課金、publicリポジトリはほぼ無制限、という形に収まった
無課金ユーザーは500GB、課金ユーザーは1TBとのこと。
いつかこうなると身構えていたユーザーもいた一方、TB単位で有益なモデルをアップロードしていた複数のユーザーが上限にヒットするなど混乱も見られた。
(2024-12-11) その後、利用実態(upしたモデルが実際に使われているかなど)に合わせて追加ストレージ枠の付与などが行われつつ、現時点ではprivateリポジトリはfreeで100GB、proで1TB+従量課金、publicリポジトリはほぼ無制限、という形に収まった
クローズドベータテストが行われていたComfyUIのデスクトップアプリ版がベータテストを終え、一般公開された。
ダウンロードは https://github.com/Comfy-Org/desktop から
ダウンロードは https://github.com/Comfy-Org/desktop から
着衣と脱衣の画像を用意して画像編集ソフトに読み込み、クリッピングマスクとメガネの枠を重ねて移動すると透視しているように見える手法が紹介された。
https://fate.5ch.net/test/read.cgi/liveuranus/1732... をもとにしている。
※時限公開のモデルも含む。スレで要望すると再公開されることがある
※時限公開のモデルも含む。スレで要望すると再公開されることがある
- 11/10 paruparu_illustrious(https://fate.5ch.net/test/read.cgi/liveuranus/1731...)
- 11/14 Illustrious_Models_AsumaXL(https://fate.5ch.net/test/read.cgi/liveuranus/1731...)
- 11/23 NONAMEmix_v1(https://fate.5ch.net/test/read.cgi/liveuranus/1732...)
- 12/_2 HarmoniqMix_ePred_v1.x(https://fate.5ch.net/test/read.cgi/liveuranus/1733...)
- 12/_5 momizi_Noob(https://fate.5ch.net/test/read.cgi/liveuranus/1733...)
- 12/10 HarmoniqMix_vPred_v2.x(https://fate.5ch.net/test/read.cgi/liveuranus/1733...)
- 12/14 NONAMEmix-Vpred(https://fate.5ch.net/test/read.cgi/liveuranus/1734...)
「NoobAiのEps&V-PredをreForgeで簡単&高速にお手軽生成する」プログラム。必要なモデルやデータをまとめてダウンロードするほか、便利な機能拡張も自動でインストールされる。
11月15日頃からスレへの書き込みの量が増えてくる。新しいモデルの公開が相次いだほかV-Pred、TIPO、DMD2、CAMEといった技術の話題、EasyReforgeの公開、椅子談義などさまざまなトピックが入り乱れて流れが速くなった。
アーリーアクセス版、0.5、0.75が公開されていたNoobAIの完成版となる1.0が公開された。
今後はv-predictionバージョンや専用ControlNetを開発するとのこと。
今後はv-predictionバージョンや専用ControlNetを開発するとのこと。
リポジトリ: https://huggingface.co/stabilityai/stable-diffusio...
SD3.5のパラメータ数25億のMediumがリリースされた。
Largeと異なりMMDiT-Xアーキテクチャを採用しており、複数の解像度の対応と全体的な一貫性を改善しているとのこと。
SD3.5のパラメータ数25億のMediumがリリースされた。
Largeと異なりMMDiT-Xアーキテクチャを採用しており、複数の解像度の対応と全体的な一貫性を改善しているとのこと。
ブログ: https://ja.stability.ai/blog/introducing-stable-di...
SD3.0のいくつかの問題に対処し、品質が向上したSD3の新バージョン。
現時点でパラメータ数8BのLargeのみ公開。パラメータ数2.5BのMediumは10月29日公開予定。
SD3.0のいくつかの問題に対処し、品質が向上したSD3の新バージョン。
現時点でパラメータ数8BのLargeのみ公開。パラメータ数2.5BのMediumは10月29日公開予定。
ネガティブプロンプトより強力に要素を排除できるWebUI/Forge用拡張機能の「Negpip」がFLUX.1にも対応した。これにより、ネガティブプロンプトを使えないFLUX.1でも実質的にネガティブプロンプトの指定が可能になった。
現在Automatic1111 WebUIはFLUX.1を扱えないため、Forge(v2.0〜)にのみ恩恵がある。
現在Automatic1111 WebUIはFLUX.1を扱えないため、Forge(v2.0〜)にのみ恩恵がある。
- Negpipiのレポジトリ… https://github.com/hako-mikan/sd-webui-negpip (「拡張機能(Extensions)」タブ−「拡張機能リスト(Available)」タブ−「読込(Load from:)」ボタン−検索欄に「negpip」と入力すると拡張機能一覧が絞り込まれ、「インストール(Install)」ボタンからインストールできる)
- 技術解説…「NegPiPの仕組みとFLUX対応」 https://note.com/hakomikan/n/n19dfd2cfabbc
https://huggingface.co/OnomaAIResearch/Illustrious...
リークの影響で9月21日ごろからアーリーアクセス版として公開されていた。
SDXLモデルでイラストに非常に強い。
詳細はillustrious_xl_01tipsに。
リークの影響で9月21日ごろからアーリーアクセス版として公開されていた。
SDXLモデルでイラストに非常に強い。
詳細はillustrious_xl_01tipsに。
突如としてHugging Faceのアカウントごと消えた。これによりすべてのebara_ponyは入手できなくなった。
数日後にCivitaiで全バージョンが公開されたが、アップしたのが本人なのかは不明。(名前からして転載だとは思うが…)
数日後にCivitaiで全バージョンが公開されたが、アップしたのが本人なのかは不明。(名前からして転載だとは思うが…)
https://blog.novelai.net/novelai-diffusion-v1-weig...
モデルは、当初のCreativeML Open RAIL-Mライセンスとクリエイティブ・コモンズBY-NC-SA 4.0ライセンスの両方の条件を適用するデュアルライセンスに基づいて公開されます。これにより、上記条件のもとで適切に帰属され配布される限り、非商用目的での利用、再配布、二次的著作物の作成が可能です。
「最近使ってるやつ」「やっぱり眩しい。なんでやろな」「4thtail使ってるんで諸々はそっち見てもろて(https://civitai.com/models/282341/4th-tail-animehe...」との作者コメント。
https://github.com/lllyasviel/stable-diffusion-web...
FLUX.1への対応などさまざまな機能が強化された。代わりに動作しなくなった拡張機能もある模様。
FLUX.1のcheckpointはflux1-schnell-bnb-nf4.safetensorsの使用が推奨されているほか、flux1-dev-fp8.safetensorsも使用できる。
Stable Diffusionの元開発者が設立したベンチャー企業Black Forest Labsが、画像生成AIモデル「FLUX.1」を発表した。
API経由での有料画像生成に加え、ライセンスにより使用可能範囲が分かれたモデルデータも同日に公開し、Huggingfaceからダウンロードできる。公開日時点ではComfyUIで画像生成が可能。
なお、パラメータ数が12Bもあるため推論には大容量のVRAM(12GB以上?)が必要。
https://blackforestlabs.ai/announcing-black-forest...
https://huggingface.co/black-forest-labs
日本語での記事 https://ascii.jp/elem/000/004/213/4213683/
ComfyUIでの使用法(8/2追記) https://comfyanonymous.github.io/ComfyUI_examples/...
Zuntan03(各種easyインストーラの作者)によるインストール用バッチファイル(8/7追記) https://x.com/Zuntan03/status/1820046015023722617
詳細はFLUX1tipsに。
API経由での有料画像生成に加え、ライセンスにより使用可能範囲が分かれたモデルデータも同日に公開し、Huggingfaceからダウンロードできる。公開日時点ではComfyUIで画像生成が可能。
なお、パラメータ数が12Bもあるため推論には大容量のVRAM(12GB以上?)が必要。
https://blackforestlabs.ai/announcing-black-forest...
https://huggingface.co/black-forest-labs
日本語での記事 https://ascii.jp/elem/000/004/213/4213683/
ComfyUIでの使用法(8/2追記) https://comfyanonymous.github.io/ComfyUI_examples/...
Zuntan03(各種easyインストーラの作者)によるインストール用バッチファイル(8/7追記) https://x.com/Zuntan03/status/1820046015023722617
詳細はFLUX1tipsに。
reForgeや、EasySdxlWebUiに採用された新サンプラーが話題に挙がっていた。
オリジナルA1111 WebUIやForge(ただしオリジナルA1111では出力結果がReForgeやForgeと変わってしまい綺麗ではない、またEuler SMEAのみADetailerに対応していない)で使用したい場合は、Extensionとして以下のリポジトリからインストールすると使用可能
https://github.com/licyk/advanced_euler_sampler_ex...
オリジナルA1111 WebUIやForge(ただしオリジナルA1111では出力結果がReForgeやForgeと変わってしまい綺麗ではない、またEuler SMEAのみADetailerに対応していない)で使用したい場合は、Extensionとして以下のリポジトリからインストールすると使用可能
https://github.com/licyk/advanced_euler_sampler_ex...
Civitaiはライセンスなどの懸念によりSD3のモデルやLoRAの公開を禁止としていたが、解決されたとして禁止を解除した。
だがライセンスを取得しない方針のためCivitai上ではSD3を使用しての生成はできない。
https://civitai.com/articles/6221/sd3-unbanned-com...
だがライセンスを取得しない方針のためCivitai上ではSD3を使用しての生成はできない。
https://civitai.com/articles/6221/sd3-unbanned-com...
ControlNetやstable-diffusion-webui-forgeの作者lllyasvielにより、Paints-UNDOという完成絵からその画像の描画シーケンスを出力するモデルおよび、シーケンスを動画として保存するコードが公開された。
詳細はリポジトリ参照
https://github.com/lllyasviel/Paints-UNDO
READMEではAnacondaでのインストール方法が記載されているが、WindowsのPython3.10.XのCuda環境下で動かしたい場合の手順は以下の通り(3.11は確認していない、3.12はpytorchの対応状況の問題で十中八九2024/7/10現在は動かない)
インストールしたいディレクトリへ移動し
2回目以降起動したいときは
動画を作成すると、最後にffprobeが見つからないというエラーが出るが、resultsディレクトリ内にmp4ファイルが生成されている。
詳細はリポジトリ参照
https://github.com/lllyasviel/Paints-UNDO
READMEではAnacondaでのインストール方法が記載されているが、WindowsのPython3.10.XのCuda環境下で動かしたい場合の手順は以下の通り(3.11は確認していない、3.12はpytorchの対応状況の問題で十中八九2024/7/10現在は動かない)
インストールしたいディレクトリへ移動し
git clone https://github.com/lllyasviel/Paints-UNDO.git cd Paints-UNDO python -m venv venv .\venv\scripts\activate pip install xformers pip install -r requirements.txt pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu121 python gradio_app.py
2回目以降起動したいときは
.\venv\scripts\activate python gradio_app.py
動画を作成すると、最後にffprobeが見つからないというエラーが出るが、resultsディレクトリ内にmp4ファイルが生成されている。
PonyでLoRAを学習する際に、学習画像のタグにスコアタグ(score_9_upなど)を入れることで学習効率を上げる方法が話題に上る。
PonyDiffusionV6XLTipsへいくつかレスを抜粋した。
PonyDiffusionV6XLTipsへいくつかレスを抜粋した。
https://github.com/Panchovix/stable-diffusion-webu...
I've forked Forge and updated (the most I could) to upstream dev A1111 changes!(フォークしたPanchovix氏による詳細が記載されたredditスレッド)
I've forked Forge and updated (the most I could) to upstream dev A1111 changes!(フォークしたPanchovix氏による詳細が記載されたredditスレッド)
Forgeが5ヶ月間アップデートされなかった後、A1111からの重要なアップデートや小さなパフォーマンスアップデートがたくさん欠けていたので、必要であれば、より使いやすく、より時代に合うようにアップデートすべきだと判断しました。(DeepLによる翻訳)とのことで、DoRAサポートやスケジューラの分離など、forgeの更新が停滞していた時期にA1111に入った大小の変更が適用されている(個人的にはavifのサポートが嬉しい)。ただしSD3対応などは含まれていない。導入方法などの詳細は上記redditを参照すると良いだろう。
https://stability.ai/news/license-update
日本語: https://ja.stability.ai/blog/license-update
Stability AIはSD3 Mediumを"Stability AI Community License"という新しいライセンスのもと公開することにした。
また、SD3 Mediumで見られる特定の条件で人体が破綻する現象を対処するとのこと。
日本語: https://ja.stability.ai/blog/license-update
Stability AIはSD3 Mediumを"Stability AI Community License"という新しいライセンスのもと公開することにした。
Our new Community License is now free for research, non-commercial, and commercial use. You only need a paid Enterprise license if your yearly revenues exceed USD$1M and you use Stability AI models in commercial products or services.年間の収入が100万ドル(日本円で約1.5億円)未満であれば研究、非商用、商用問わず無料で使用できる。
また、SD3 Mediumで見られる特定の条件で人体が破綻する現象を対処するとのこと。
画像・動画・音声生成のためのオープンライセンスAIモデルの開発を推進することを目的にしたプロジェクトであるOpen Model Initiativeが発足した。発足メンバーはInvoke、ComfyOrg、Civitai。LAIONもメンバーだったが参加しないことになった。
続報で新たなメンバーが発表され、その中にはPony Diffusionの開発者であるAstraliteHeart氏もいる。
発表:https://www.reddit.com/r/StableDiffusion/comments/...
続報:https://www.reddit.com/r/StableDiffusion/comments/...
続報で新たなメンバーが発表され、その中にはPony Diffusionの開発者であるAstraliteHeart氏もいる。
発表:https://www.reddit.com/r/StableDiffusion/comments/...
続報:https://www.reddit.com/r/StableDiffusion/comments/...
購入(500円):https://tiananmen-square.booth.pm/items/5848321
現在はmegaのダウンロードリンクは削除されておりboothでの有料販売となっています。
https://fate.5ch.net/test/read.cgi/liveuranus/1718...
現在はmegaのダウンロードリンクは削除されておりboothでの有料販売となっています。
https://fate.5ch.net/test/read.cgi/liveuranus/1718...
774: 警備員[Lv.42] (ワッチョイ 1acc-Fyfa) sage 2024/06/20(木) 22:40:00.63 ID:1zaStuBA0 https://mega.nz/file/gJ1DmS5b#s5FpmhxfKujG4ST8hKQ_hN8UTJGJfvuXybWoOXc9ufY 自作の手描き文字フォントを公開するで インスコしたらフォント名は「そこになければない」で出てくるはずや 自分が使うために制作したフォントやからそう大したモンでもないからそこは堪忍やで ひらがな、カタカナのみ対応 テンキーに「あ」「は」「ん」のバリエーション +-*/にハート 小文字英aiueoに濁音つきのアイウエオ https://i.imgur.com/ajoC51a.jpeghttps://fate.5ch.net/test/read.cgi/liveuranus/1718...
776: 警備員[Lv.42] (ワッチョイ 1acc-Fyfa) sage 2024/06/20(木) 22:44:28.07 ID:1zaStuBA0 >>774 商用利用OKやから基本好きに使ってくれてええで。 フォント自体の再配布や販売のみ禁止でたのむで このフォントが売りに出されるときはワイが売るときだけやhttps://fate.5ch.net/test/read.cgi/liveuranus/1718...
158: 警備員[Lv.43] (ワッチョイ 1a56-Fyfa) sage 2024/06/21(金) 22:07:34.16 ID:iyTJupHe0 https://i.imgur.com/iSzRGU4.jpeg https://tiananmen-square.booth.pm/items/5848321 自作手描きフォント、 伸ばし棒とかハートマークとか縦書きで横になる文字をちょっと調整したから 改めておいておくで。 しばらくしたら有料にするかもしれんでそれより前にダウンロードしておいてな
当該ポスト:https://x.com/ComfyUI/status/1803109283263029616
公式サイト:https://www.comfy.org/
ComfyUIの作者であるcomfyanonymous氏はStabilityAIを退社、SwarmUIの作者のmcmonkey4eva氏などとともに「Comfy Org」を設立した。オープンソースのAIツールを発展させ民主化することを目標としている。
公式サイト:https://www.comfy.org/
ComfyUIの作者であるcomfyanonymous氏はStabilityAIを退社、SwarmUIの作者のmcmonkey4eva氏などとともに「Comfy Org」を設立した。オープンソースのAIツールを発展させ民主化することを目標としている。
SD3に関するライセンス(特に商用ライセンスの範囲)が不明瞭なことから、将来的なモデルの保全やライセンス料請求の有無などの安全を確認できるまで、
CivitaiでSD3に関するモデル及び派生データ(LoraやControlNetなどのSD3をベースにした学習結果も含む)の公開が一時的に停止された。
https://civitai.com/articles/5732
もしすでにSD3に関する学習を計画している人は、本項目記載時点においてCivitaiで公開できないので要注意
CivitaiでSD3に関するモデル及び派生データ(LoraやControlNetなどのSD3をベースにした学習結果も含む)の公開が一時的に停止された。
https://civitai.com/articles/5732
もしすでにSD3に関する学習を計画している人は、本項目記載時点においてCivitaiで公開できないので要注意
SD3をベースにPony Diffusion V7を作る予定だったが、
SD3の商用ライセンスが曖昧なことなどを理由に、SDXLがベースのV6.9を作ると発表した。
詳しくは https://civitai.com/articles/5671/towards-pony-dif...
SD3の商用ライセンスが曖昧なことなどを理由に、SDXLがベースのV6.9を作ると発表した。
詳しくは https://civitai.com/articles/5671/towards-pony-dif...
リポジトリ: https://huggingface.co/stabilityai/stable-diffusio...
ブログ: https://ja.stability.ai/blog/stable-diffusion-3-me...
デモページ:https://huggingface.co/spaces/stabilityai/stable-d...
StabilityAIが開発するStable Diffusionの最新版が公開された。今回公開されたのはパラメータ数20億のMedium。
従来のSDより破綻が減少し、プロンプトへの忠実度が改善した。また文字を正しく生成できるようになった。
現在対応しているWebUIはComfyUIと1111のwebui。またモデルのダウンロードにはHuggingfaceのユーザー登録が必要。
「comfy_example_workflows」からサンプルワークフローの「sd3_medium_example_workflow_basic.json」をダウンロードし、ComfyUIで読み込む。
ワークフローの「TripleClipLoader」の接続を外し、「LoadCheckpoint」(モデル選択欄)から直接「ClipTextEncode」(プロンプト入力欄)にClipの出力を繋ぎなおす。
ブログ: https://ja.stability.ai/blog/stable-diffusion-3-me...
デモページ:https://huggingface.co/spaces/stabilityai/stable-d...
StabilityAIが開発するStable Diffusionの最新版が公開された。今回公開されたのはパラメータ数20億のMedium。
従来のSDより破綻が減少し、プロンプトへの忠実度が改善した。また文字を正しく生成できるようになった。
現在対応しているWebUIはComfyUIと1111のwebui。またモデルのダウンロードにはHuggingfaceのユーザー登録が必要。
- 現時点での最も簡単なローカル導入方法
「comfy_example_workflows」からサンプルワークフローの「sd3_medium_example_workflow_basic.json」をダウンロードし、ComfyUIで読み込む。
ワークフローの「TripleClipLoader」の接続を外し、「LoadCheckpoint」(モデル選択欄)から直接「ClipTextEncode」(プロンプト入力欄)にClipの出力を繋ぎなおす。
https://github.com/lllyasviel/stable-diffusion-web...
(以下は機械翻訳、強調は引用者による)
====
フォージユーザーの皆さん、
今日、アップストリーム sd-webuiの開発ブランチでは、パフォーマンスに関する多くの進捗が更新されました。以前のボトルネックの多くは解決されるはずです。ここで説明したように、大多数のユーザーにはアップストリーム webui に戻すことをお勧めします (webui の開発ブランチを直接使用するか、開発ブランチがメインにマージされるまで待機します)。
同時に、Forge の多くの機能 (unet-patcher や最新のメモリ管理など) は、現在の WebUI のエコシステムに実装するにはコストがかかりすぎると考えられています。
その後、Forge は、主に統合コストのかかる機能をテストするための実験的なリポジトリになります。Gradio 4 で実験し、LRU プロセス スケジューリングと pickle ベースのプロセス通信に基づく huggingface space のゼロ GPU メモリ管理のローカル GPU バージョンの実装を、次のバージョンの Forge に追加します。これにより、Forge に「Forge Space」(Gradio 4 SDK @spaces.GPU 名前空間に基づく) という新しいタブと、「LLM」という別のタブが追加されます。
これらのアップデートにより、ほぼすべての拡張機能が壊れる可能性があるため、実稼働環境のすべてのユーザーには、日常使用ではアップストリームの WebUI に戻すことをお勧めします。
gradio の LLM インターフェイスとストリーミング システム、イメージ エディターとディスプレイにおける最近の進歩、および Gradio SDK のゼロ GPU 計算管理システムのシームレスな統合に関して、アップストリームの検討や適応には Gradio 4 のフィードバックと拡張も必要であるため、少数のユーザーをここに残して Gradio 4 をテストするよう招待します。
最後に、Forge ユーザーに今すぐファイルのバックアップを取ることを推奨します (または、可能であればアップストリームの WebUI に戻すだけです)。このアナウンスに気付かずに誤って Forge を更新した場合、このアナウンス前の最後のコミットは29be1daです。
====
https://github.com/Takenoko3333/sd-webui-reuse-see...
開発のいきさつは以下。
なんJNVA部★402/260
なんJNVA部★402/631
続いて、生成ボタンを分割して🎲、♻、+1ボタンを追加するJavaScriptを機能拡張化するリクエストが出された。
なんJNVA部★403/177
なんJNVA部★403/523
開発のいきさつは以下。
なんJNVA部★402/260
260 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6938-l7CW)[sage] 投稿日:2024/06/05(水) 18:28:30.55 ID:4POD0XU60 SDのWebUIでプロンプトいじりながら適当に出力して 良いSEED見つけたら固定してhires.FixとAdetailerのチェック入れてるんやが 毎回外したり付けたりSEED固定したりランダムにするのが面倒なんやが ボタン一発でやる方法とかない?
なんJNVA部★402/631
631 名前: 警備員[Lv.30] (ワッチョイ 4ac3-M/1B)[sage] 投稿日:2024/06/06(木) 15:44:42.87 ID:UNK+HALX0 >>382 できたで https://github.com/Takenoko3333/sd-webui-reuse-seed-plus ワンボタンでやりたかったけどHires.fixの挙動が複雑だったから 連動をチェックボタンで切り替える方式にした 詳しくはgithubの説明を読んでくれ 連動の組み合わせは多岐に渡るしワンボタン化等追々改修していく予定 リクエストがあればどうぞ
続いて、生成ボタンを分割して🎲、♻、+1ボタンを追加するJavaScriptを機能拡張化するリクエストが出された。
なんJNVA部★403/177
177 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 86a4-6Hk5)[] 投稿日:2024/06/07(金) 22:16:52.73 ID:vd08XaSL0 >>146 その勢いでこれも拡張機能にしてほしい https://seesaawiki.jp/nai_ch/d/%b5%a1%c7%bd%a4%c4%a4%ad%a4%ce%c0%b8%c0%ae%a5%dc%a5%bf%a5%f3%a4%f2%c4%c9%b2%c3%a4%b9%a4%eb%ca%fd%cb%a1 ビッグウェーブが来ているわけじゃ全然ないけど
なんJNVA部★403/523
523 名前: 警備員[Lv.32] (ワッチョイ 4ac3-M/1B)[sage] 投稿日:2024/06/08(土) 22:47:02.79 ID:t6FS3GUu0 sd-webui-reuse-seed-plus に機能を追加しました!(v0.2.0) https://github.com/Takenoko3333/sd-webui-reuse-seed-plus txt2img, img2img の画面に三つの機能付き生成ボタンを追加します。 Hires.fix のオン/オフに連動して他の機能のオン/オフを切り替えます。 https://files.catbox.moe/13c29a.png https://files.catbox.moe/pnm6wi.png 生成ボタンについて リクエストに応じて過去スレで紹介されていたブックマークレットを改修して機能拡張に組み込みました。


Animagine3.1に現場猫LoRAを組み合わせ、コマ割りされたマンガのような画像を出力するのが流行。「謎漫画」と呼ばれた。
なんJNVA部★402/252
====
252 名前: 警備員[Lv.34] (ワッチョイ beee-WQ8n)[] 投稿日:2024/06/05(水) 17:54:13.15 ID:xEbGq8Wl0
謎まんが

>>115
そやでー、猫loraのウェイト上げると猫寄り、下げるとキャラ寄り
プロンプト入ってるからよかったら好きなキャラでどうぞやで
ワイこの2日、AIの狂気ネタにSAN値削られてゼロなんで
もうロリ幼女作成に戻るわ・・・
====
補助スクリプトや作り方など詳しい情報は謎漫画を参照のこと。
なんJNVA部★402/252
====
252 名前: 警備員[Lv.34] (ワッチョイ beee-WQ8n)[] 投稿日:2024/06/05(水) 17:54:13.15 ID:xEbGq8Wl0
謎まんが


>>115
そやでー、猫loraのウェイト上げると猫寄り、下げるとキャラ寄り
プロンプト入ってるからよかったら好きなキャラでどうぞやで
ワイこの2日、AIの狂気ネタにSAN値削られてゼロなんで
もうロリ幼女作成に戻るわ・・・
====
補助スクリプトや作り方など詳しい情報は謎漫画を参照のこと。
6/13追記:日本時間の6月12日午後10時ごろに一般公開された。
6/13追記:ライセンスに不明な点が多いためSD3での学習は当分見送るらしい。
ControlNetやFooocus、Forgeの開発で知られるlllyasviel氏が対話型AIを用いて画像を生成する「Omost」を公開した。
https://github.com/lllyasviel/Omost
PCにインストールしなくても、huggingface上のデモページで試すこともできる。
https://huggingface.co/spaces/lllyasviel/Omost
なんJNVA部★400
https://fate.5ch.net/test/read.cgi/liveuranus/1716...
- 手持ちの画像からプロンプトを推測するツール https://huggingface.co/spaces/John6666/wd-tagger-t...
- 上のに加えてエロプロンプトを生成するツール https://huggingface.co/spaces/John6666/danbooru-ta...
- 普通のDanbooruタグをポニー用のe621タグに変換するツール https://huggingface.co/spaces/John6666/danbooru-to...
いずれもインストールは必要なく、huggingfaceのスペース上で利用できる。
「適当にパクって改造したもんなんで誰でも好きに適当にパクって改造したってやー」とのこと。
https://civitai.com/models/464044
Pony系列のモデルが弱いとされる背景の描き込みが強化されているのが特徴。
https://fate.5ch.net/test/read.cgi/liveuranus/1716...
Pony系列のモデルが弱いとされる背景の描き込みが強化されているのが特徴。
https://fate.5ch.net/test/read.cgi/liveuranus/1716...
3x3x3mixXL作成してみたンゴ typeA~C混ぜてみたんやが正直色んな要素が薄まってごちゃまぜになっとるから却って使いにくいかもしれん… あとマージを繰り返した代償か全身入る構図だと顔が崩れやすいのでADtailerでつかったほうがいいかもやで!
https://huggingface.co/tsukihara/xl_model
https://fate.5ch.net/test/read.cgi/liveuranus/1715...
変更点については「まぁ強いて言うなら構図…?わからんワイは雰囲気でマージしとる」「1.5のときみたいに「バージョンアップ!」って訳じゃなくて単に絵柄が違うって感じ」とも。( https://fate.5ch.net/test/read.cgi/liveuranus/1715... )
翌日2.1が公開された。「肌が流石に眩しすぎたので若干オリジナルponyに近くした。自分らで好きに調整してくんろ」とのこと。
https://fate.5ch.net/test/read.cgi/liveuranus/1715...
625: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 6106-txKt) sage 2024/05/12(日) 17:25:40.46 ID:jCfcGQrA0 https://files.catbox.moe/mil0up.jpgし https://huggingface.co/tsukihara/xl_model タレ目抑えたモデルわよ ちょっとロリすぎるかもしれんけどまあええかで公開わよ
変更点については「まぁ強いて言うなら構図…?わからんワイは雰囲気でマージしとる」「1.5のときみたいに「バージョンアップ!」って訳じゃなくて単に絵柄が違うって感じ」とも。( https://fate.5ch.net/test/read.cgi/liveuranus/1715... )
翌日2.1が公開された。「肌が流石に眩しすぎたので若干オリジナルponyに近くした。自分らで好きに調整してくんろ」とのこと。
一定の長さ以上の文章 URLだと「もう余所でやってください。」になり、
URL 文章ならば書き込めるとの報告が相次いだ。
4/22に公開された、画像の構図を維持したまま衣装やキャラなど他の要素を変更できるControlnetモデル、cnlllite-anystyleが流行した。
詳しくはControlNetをご覧ください
詳しくはControlNetをご覧ください
https://hyper-sd.github.io/
LCMやSDXL-Lightningのような低STEPで生成を完了する技術に、新たな手法としてHyper-SDが公開された
上述の既存手法よりも生成物の精度が良いとされ、実際にスレ★386でも使用された画像が貼られているので参考にすると良い
https://fate.5ch.net/test/read.cgi/liveuranus/1713...
導入方法は、公式サイトからリンクされているHuggingFaceでLoRAとしてダウンロードできる
SD1.5用とSDXL用があるので、用途に合わせてダウンロードする
使用時は、LCM LoRAと同じようにプロンプト内で呼び出せば良い
設定例 Hyper-SDXL-8steps-lora.safetensorsの場合
ステップ:8 サンプリング:Euler a SGM Uniform(Uniformでもいける) CFG:Animagine系は1〜2、Pony系は3〜3.5くらい
※注意 SDXL用のsafetensorが誤ってSD1.5用として内部に記載されているため、WebUIデフォルト設定でSDXLモデルを読み込んでいるとLoRAリストに表示されない
設定からExtra Networks(追加のネットワーク)ページにあるAlways show all networks on the Lora page(otherwise, those detected as for incompatible version of Stable Diffusion will be hidden)にチェックを入れると表示されるので、LoRAのスパナアイコンから設定をSDXLに変更すると良い
LCMやSDXL-Lightningのような低STEPで生成を完了する技術に、新たな手法としてHyper-SDが公開された
上述の既存手法よりも生成物の精度が良いとされ、実際にスレ★386でも使用された画像が貼られているので参考にすると良い
https://fate.5ch.net/test/read.cgi/liveuranus/1713...
導入方法は、公式サイトからリンクされているHuggingFaceでLoRAとしてダウンロードできる
SD1.5用とSDXL用があるので、用途に合わせてダウンロードする
使用時は、LCM LoRAと同じようにプロンプト内で呼び出せば良い
設定例 Hyper-SDXL-8steps-lora.safetensorsの場合
ステップ:8 サンプリング:Euler a SGM Uniform(Uniformでもいける) CFG:Animagine系は1〜2、Pony系は3〜3.5くらい
※注意 SDXL用のsafetensorが誤ってSD1.5用として内部に記載されているため、WebUIデフォルト設定でSDXLモデルを読み込んでいるとLoRAリストに表示されない
設定からExtra Networks(追加のネットワーク)ページにあるAlways show all networks on the Lora page(otherwise, those detected as for incompatible version of Stable Diffusion will be hidden)にチェックを入れると表示されるので、LoRAのスパナアイコンから設定をSDXLに変更すると良い
4/30に、CFGスケール5〜8に対応したモデルが公開された。これを使用すると、HyperSD使用時と不使用時でCFGスケールを調整する必要が無くなる。
https://ja.stability.ai/blog/stable-diffusion-3-ap...
現時点では有料。
早速課金して試した人もいるが「あまりクオリティの向上は感じられない」とのこと。
ただし公開されたのは開発途上のモデルとの情報もあり、現時点でSD3の実力の明確な評価を下せる段階にはない。
現時点では有料。
早速課金して試した人もいるが「あまりクオリティの向上は感じられない」とのこと。
ただし公開されたのは開発途上のモデルとの情報もあり、現時点でSD3の実力の明確な評価を下せる段階にはない。
https://news.adobe.com/news/news-details/2024/Adob...
https://gigazine.net/news/20240416-adobe-premiere-...
動画編集ソフト「Adobe Premiere Pro」に、「Sora」をはじめとする複数の動画生成AIモデルが2024年後半をめどに実装予定であることが発表された。
今後ますます一般人も高性能な動画AIを使えるようになっていくことが期待される。
https://gigazine.net/news/20240416-adobe-premiere-...
動画編集ソフト「Adobe Premiere Pro」に、「Sora」をはじめとする複数の動画生成AIモデルが2024年後半をめどに実装予定であることが発表された。
今後ますます一般人も高性能な動画AIを使えるようになっていくことが期待される。
かねてよりスクリプト荒らしに見舞われていた5chで、その対策として開発されたどんぐりシステムが、本スレ382で強制有効化された。
ただし、これにより未対応ブラウザ民がスレに書き込めなくなる問題が発生するため、今後も有効化を続けるかどうかは議論が必要である。
どのくらい書き込めないユーザーがいるか把握のためにも、該当者はテンプレの避難所に報告してほしい。
ただし、これにより未対応ブラウザ民がスレに書き込めなくなる問題が発生するため、今後も有効化を続けるかどうかは議論が必要である。
どのくらい書き込めないユーザーがいるか把握のためにも、該当者はテンプレの避難所に報告してほしい。
https://stability.ai/news/stabilityai-announcement
CEOのEmad Mostaque氏をはじめとする従来のStability AIの開発メンバーの大部分が退社していることが明らかになった。
これによりSDのサポート体制やSD3のリリースに影響が生じるかどうかは現時点では不明。
SD3がオープンソースでリリースされることは確定している模様。
CEOのEmad Mostaque氏をはじめとする従来のStability AIの開発メンバーの大部分が退社していることが明らかになった。
SD3がオープンソースでリリースされることは確定している模様。
https://huggingface.co/cagliostrolab/animagine-xl-...
https://cagliostrolab.net/posts/animagine-xl-v31-r...
Linaqurf氏らがAnimagine XL 3.0の後継の「Animagine XL 3.1」を公開した。
3.0で出なかった多くのアニメキャラが出せるようになった。
Quality tagsの仕様が変更されたことに注意。Aesthetic Tagsも追加された。
https://cagliostrolab.net/posts/animagine-xl-v31-r...
Linaqurf氏らがAnimagine XL 3.0の後継の「Animagine XL 3.1」を公開した。
3.0で出なかった多くのアニメキャラが出せるようになった。
Quality tagsの仕様が変更されたことに注意。Aesthetic Tagsも追加された。
初出は以下のスレ
なんJNVA部★361
https://fate.5ch.net/test/read.cgi/liveuranus/1710...
581: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 12e8-xhpr) sage 2024/03/14(木) 09:20:02.25 ID:QawQpn3/0
RTX 2000 Adaが販売されるらしいけどこのスレ的にはどうなんや
こいつもPCIe4x8らしいからRTX4060 16GBのちょっと上っていう感じ?
582: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 7e66-UCxz) sage 2024/03/14(木) 09:26:02.88 ID:Uav7afoj0
>>581
最大消費電力が70WだからガチでAI以外での用途は絶望的だし恐らくパフォーマンスがいいわけでもない
24時間生成し続けるけど電気代が気になるって人じゃなきゃ価値無いんやないか
584: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 12e8-xhpr) sage 2024/03/14(木) 09:29:29.97 ID:QawQpn3/0
>>582
見解サンガツや
つうことは学習ずっと回したい人とか二枚目三枚目を安く積み重ねたい人むけやろかこれ
587: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 2e3e-gl2Z) sage 2024/03/14(木) 09:40:29.78 ID:MzzNXCG/0
>>584
ttps://i.imgur.com/O14NCsP.jpeg
端子構成がこんな感じなあたり、3~4枚の複数モニター環境構築したい人向けというか、それ以外の一般ユーザーにはただただ使いにくいグラボでしかないと思う
591: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 12e8-xhpr) sage 2024/03/14(木) 10:11:45.54 ID:QawQpn3/0
>>587
んなことはわかってる釈迦に説法や
Kohakuニキなんかも3090を4積みとかやってるから、学習にマルチGPUって意味あるんかなと思って
推論の場合は別々のインスタンスになってしまうからあまり意味ないのはわかってんやけど
592: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ a2bb-On+R) sage 2024/03/14(木) 10:12:33.69 ID:jyi7Ntuv0
>>591
お前が釈迦だったのか…
594: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 7ef3-OcrC) sage 2024/03/14(木) 10:14:22.42 ID:FJxL1hfC0
釈迦に説法を自分側に使う人初めて見たわ
釈迦に説法とは
質問の回答を貰っておきながら自分の事を釈迦と称し相手を窘める姿にスレ民の腹筋が悟りを開き、スレは一躍釈迦ブームとなった。
ミームとして面白いのは確かだが、元ネタを知らないとただただ失礼なだけである。用法用量には注意しよう
Animagineでも、Ponyと同様にランダムな英数字3文字を入れることでスタイルが変化することが判明した。
そもそもXLの標準モデルに備わっている仕様に影響を受けた挙動なのではないかという推測もなされた。
そもそもXLの標準モデルに備わっている仕様に影響を受けた挙動なのではないかという推測もなされた。
本スレ(というかなんU)に勢い順で埋め立てるスクリプトが発生し機能不全に陥っている。
以下の避難所に避難しよう。
メイン避難所: https://bbs.3chan.cc/test/read.cgi/liveuranus/1695...
サブ避難所: http://bbs.jpnkn.com/test/read.cgi/JNVA/1696574746...
以下の避難所に避難しよう。
メイン避難所: https://bbs.3chan.cc/test/read.cgi/liveuranus/1695...
サブ避難所: http://bbs.jpnkn.com/test/read.cgi/JNVA/1696574746...
PonyDiffusionV6XLには、イラストレーターなどのタグが英数字3文字でひそかに埋め込まれていることが判明。なんJNVA部★356 https://fate.5ch.net/test/read.cgi/liveuranus/1710... の中盤からこの話題が急激に増えスレが加速した。スレ終盤にはスクリプト荒らしが来襲しカオスに。
LayerDiffusionはControlNetを開発したメンバーが発表したもので、画像生成モデルが透過画像を生成できるようにしたものらしい。
このLayerDiffusionが使える環境がforge向けに公開された(sd-forge-layerdiffusion)
スレ民が使った感想としては以下がよくまとまっているので引用する。
スレ民が使った感想としては以下がよくまとまっているので引用する。
0027 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ de28-9+AH) 2024/03/02(土) 18:57:42.58ID:g50+9iiw0 まだ試していない奴向けに ・Layer Diffusionは現状ゲームやまんがや雑コラの素材作り向け ・前景とか背景から生成させるのは言うほど解釈力高くない どういうのが合うのかとか考えず単純に雑コラしがち ・生成させる場所の指定とかできないので元々あったものを 完全に隠す感じで生成しがち ・i2iはあと1週間くらいで来るらしい大きく環境が変化するまで時間はまだ掛かりそうだが、今後に期待したい。
https://github.com/p1atdev/sd-danbooru-tags-upsamp...
LECOの作者であるp1atdev氏が入力されたプロンプトに続くdanbooruタグをLLMが生成するExtensionを公開した。
AIがいい感じにプロンプトを生成してくれるので、プロンプトが思いつかない時やガチャをしたいときに便利。
LECOの作者であるp1atdev氏が入力されたプロンプトに続くdanbooruタグをLLMが生成するExtensionを公開した。
AIがいい感じにプロンプトを生成してくれるので、プロンプトが思いつかない時やガチャをしたいときに便利。
https://stability.ai/news/stable-diffusion-3
日本語の記事: https://ja.stability.ai/blog/stable-diffusion-3
Stability AIにより、Stable Diffusionの次世代モデル「Stable Diffusion 3」が発表された。
従来のモデルよりもプロンプトの読解力や表現力が大幅に向上し、テキストも正確に出力できるとのこと。
OpenAIの「Sora」と同様の新たな拡散トランスフォーマー技術が使用されているという。
現時点では一般公開されておらず、今後の公開予定や要求スペックなどは不明。
Stable Cascadeとは何だったのか
日本語の記事: https://ja.stability.ai/blog/stable-diffusion-3
Stability AIにより、Stable Diffusionの次世代モデル「Stable Diffusion 3」が発表された。
従来のモデルよりもプロンプトの読解力や表現力が大幅に向上し、テキストも正確に出力できるとのこと。
OpenAIの「Sora」と同様の新たな拡散トランスフォーマー技術が使用されているという。
現時点では一般公開されておらず、今後の公開予定や要求スペックなどは不明。
https://comfyanonymous.github.io/ComfyUI_examples/...
ComfyUIがStable Cascadeに対応したことが発表された。
CascadeのモデルをCheckpointフォルダに入れるだけで動作するとのこと。
本スレではVRAM8GBでも動作したことが報告されている。
ComfyUIがStable Cascadeに対応したことが発表された。
CascadeのモデルをCheckpointフォルダに入れるだけで動作するとのこと。
本スレではVRAM8GBでも動作したことが報告されている。
pixivにR18のAI画像を上げたところBANされたことが本スレで相次いで報告される。
利用規約で禁止されている実写ポルノ、他者の偽装、他サイトなどの誘導に引っかかっていると推測されているが詳細は不明。
今後はpixivにAI画像を上げるのは避けた方が良いだろう。
手描き絵師のBAN報告も多数あるため、最早pixiv運営にしか本当のところはわからない。
利用規約で禁止されている実写ポルノ、他者の偽装、他サイトなどの誘導に引っかかっていると推測されているが詳細は不明。
手描き絵師のBAN報告も多数あるため、最早pixiv運営にしか本当のところはわからない。
https://openai.com/sora
OpenAIにより動画生成AI「Sora」が発表された。
プロンプトから最長1分間の高解像度動画を生成可能であり、複雑なプロンプトにも対応する。
疑似的な物理シミュレーションが行われているとのことで、従来の生成AIから飛躍的に性能が向上したリアルな映像が話題となった。
なお現時点ではあくまでも技術発表でありモデルの一般公開は行われない。
OpenAIにより動画生成AI「Sora」が発表された。
プロンプトから最長1分間の高解像度動画を生成可能であり、複雑なプロンプトにも対応する。
疑似的な物理シミュレーションが行われているとのことで、従来の生成AIから飛躍的に性能が向上したリアルな映像が話題となった。
なお現時点ではあくまでも技術発表でありモデルの一般公開は行われない。
https://ja.stability.ai/blog/stable-cascade
https://github.com/Stability-AI/StableCascade
Stability AIにより、新たな画像生成モデル「Stable Cascade」が公開された。
SDXLよりも短時間での生成が可能であり、さらにプロンプトの忠実度や画像の美学的品質も向上しているという。
ローカルで動かすにはデフォルトで20GBのVRAMを必要とするが、コードを改変することでより少ないVRAMで動作したとの報告もある。
https://note.com/hakomikan/n/n75f0ee78abf9
https://github.com/Stability-AI/StableCascade
Stability AIにより、新たな画像生成モデル「Stable Cascade」が公開された。
SDXLよりも短時間での生成が可能であり、さらにプロンプトの忠実度や画像の美学的品質も向上しているという。
ローカルで動かすにはデフォルトで20GBのVRAMを必要とするが、コードを改変することでより少ないVRAMで動作したとの報告もある。
https://note.com/hakomikan/n/n75f0ee78abf9
RadeonでCUDAを動かせるようにするラッパーソフトウェアZLUDAがGitHubで突如リリースされた。
https://github.com/vosen/ZLUDA/
元々はAMDで開発していたがこれが流行ると益々CUDAでええやんとなってしまうためプロジェクトが没になり作者が公開するに至った(AMDは2023年10月にnod.ai SHARKを買収している)。
性能としてはGeekbenchをOpenCL版で動かすよりもほとんど性能が上がる(最大75.34%アップ)など、ただ単にソフト互換性があるだけではなく、パフォーマンスメリットまである事が判明した。
2024年6月1日現在、Stable Diffusion WebUI AMDGPU(旧Stable Diffusion WebUI DirectML)の--use-zludaオプションや、ComfyUIのZLUDAフォーク版を使う事でRadeonでもStable Diffusion系を高速に扱う事が出来るようになっている。
https://github.com/vosen/ZLUDA/
元々はAMDで開発していたがこれが流行ると益々CUDAでええやんとなってしまうためプロジェクトが没になり作者が公開するに至った(AMDは2023年10月にnod.ai SHARKを買収している)。
性能としてはGeekbenchをOpenCL版で動かすよりもほとんど性能が上がる(最大75.34%アップ)など、ただ単にソフト互換性があるだけではなく、パフォーマンスメリットまである事が判明した。
2024年6月1日現在、Stable Diffusion WebUI AMDGPU(旧Stable Diffusion WebUI DirectML)の--use-zludaオプションや、ComfyUIのZLUDAフォーク版を使う事でRadeonでもStable Diffusion系を高速に扱う事が出来るようになっている。
ControlNetの作者lllyasvielによる、WebUIのリファクタリング版がリリースされた
https://github.com/lllyasviel/stable-diffusion-web...
低VRAM環境での高速化や使用メモリ削減が見込めるものの、一部Extensionがまだ動かないらしいので上記Githubを要参照
Githubより
NVAスレのみなさまの喜びの声
https://github.com/lllyasviel/stable-diffusion-web...
低VRAM環境での高速化や使用メモリ削減が見込めるものの、一部Extensionがまだ動かないらしいので上記Githubを要参照
Githubより
オリジナルのWebUI(1024pxでのSDXL推論)と比較すると、以下のようなスピードアップが期待できます:
- 8GB vramのような一般的なGPUを使用する場合、推論速度(it/s)が約30〜45%向上し、GPUメモリピーク(タスクマネージャ)が約700MBから1.3GBに減少し、最大拡散解像度(OOM:VRAM不足…Out Of Memoryしない)が約2倍から3倍に増加し、最大拡散バッチサイズ(OOMしない)が約4倍から6倍に増加します。
- 6GB vramのような強力でないGPUを使用する場合、推論速度(it/s)は約60〜75%向上し、GPUメモリピーク(タスクマネージャ)は約800MBから1.5GBに減少し、最大拡散解像度(OOMしない)は約3倍、最大拡散バッチサイズ(OOMしない)は約4倍に増加します。
- 24GBのvramを持つ4090のような強力なGPUを使用する場合、推論速度(it/s)が約3〜6%高速化し、GPUメモリピーク(タスクマネージャ)が約1GBから1.4GBに低下し、最大拡散解像度(OOMしない)が約1.6倍になり、最大拡散バッチサイズ(OOMしない)が約2倍になります。
- SDXLにControlNetを使用する場合、ControlNetの最大カウント数(OOMしない)は約2倍になり、SDXL+ControlNetの速度は約30〜45%速くなります。
NVAスレのみなさまの喜びの声
なんJNVA部★328 https://fate.5ch.net/test/read.cgi/liveuranus/1707027741/994 994: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ b73c-jSnV) sage 2024/02/06(火) 13:01:10.84 ID:73PRlTFt0 A1111の方は最新やなく1.6.0やがForgeと比較したで 環境は5900X, RTS4070tis (PL70%) 魔人の1024x1024 step30を2倍にhiresした結果や A1111:https://litter.catbox.moe/xmggsd.png Forge:https://litter.catbox.moe/sozkxc.png 使用メモリ量が4GB以上削減されとる上に速度も30秒以上改善されとる hiresも速くてこれはすごいわ 動かん拡張があるらしいのがネックやが、正直適当にポン出しするならComfyUIよりこっちの方がええな https://litter.catbox.moe/nt6n0p.jpg なんJNVA部★329 116: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ d7d4-KLri) sage 2024/02/06(火) 15:08:10.66 ID:+EIplyW30 4080 VRAM16GBでforgeお試し SDXL 1024*1536からの2倍hiresで2048x3072行けて感動した. ただhiresなしだとそこまで体感変わらないのと、hiresありでも12GBくらいしかVRAM使ってないのでそこは勿体ないかな. たぶん12GB勢でも2倍行ける lora-block-weightはエラー出ないけど効いてないみたいだわ 132: 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった(ワッチョイ 9f2c-by7P) sage 2024/02/06(火) 15:29:23.02 ID:4ViKf5KT0 3060ti8Gでも832*1216のhires*2が2分でいけるね 革命ですわ
https://civitai.com/models/257749/pony-diffusion-v...
スレがAnimagine XL 3.0の話題で持ちきりになる中、数日前にCivitaiにアップロードされていたモデル。
かなり独特なクオリティタグとnegative promptの使用が必要で、上手くチューニングしないとバタ臭い絵が生成されるが、
ハマった場合の質の高さにスレは盛り上がった。特にNSFWが優秀。
loraの学習モデルとしても優秀で、Animagineよりも特殊性癖への理解が強い(小並)
クオリティタグ、negative promptはスレで共有された一例を以下に記すが、civitaiのサンプル等から各々探ってほしい。
そして良いものがあればスレで共有してほしい。
クオリティタグ一例
negative prompt一例(姫騎士ニキ)
参照:PonyDiffusionV6XLTips
スレがAnimagine XL 3.0の話題で持ちきりになる中、数日前にCivitaiにアップロードされていたモデル。
かなり独特なクオリティタグとnegative promptの使用が必要で、上手くチューニングしないとバタ臭い絵が生成されるが、
ハマった場合の質の高さにスレは盛り上がった。特にNSFWが優秀。
loraの学習モデルとしても優秀で、Animagineよりも特殊性癖への理解が強い(小並)
クオリティタグ、negative promptはスレで共有された一例を以下に記すが、civitaiのサンプル等から各々探ってほしい。
そして良いものがあればスレで共有してほしい。
クオリティタグ一例
0229今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ a7b0-OBZN) 2024/01/26(金) 11:50:33.13ID:HD6WR8TC0 ponyちゃん先頭にこれいれとけばええやろ感がすごい score_9, score_8_up, score_7_up, BREAK source_anime, rating_explicit, best quality, masterpiece, uncensored, 1girl,
negative prompt一例(姫騎士ニキ)
0077今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5f14-zQB7) 2024/01/25(木) 22:47:04.32ID:qJvUoh9O0 >>75 キャラ設定用の奴を抜くと↓やね Ponyは背景弱いしdepth of fieldとかのネガは抜いて背景ボヤかせたほうがええかもなぁという気もしているわ censored, mosaic censoring, bar censor ,border, worst quality, low quality, simple background, white background, realistic, sketch ,muscle , normal quality, jpeg artifacts, depth of field, blurry, messy drawing, amateur drawing, lowres, bad anatomy, bad hands, text, error, missing fingers, fewer digits, extra digits,cropped , greyscale, monochrome, source_furry, source_pony, source_cartoon, comic ,source filmmaker,video ,3d
参照:PonyDiffusionV6XLTips
https://huggingface.co/cagliostrolab/animagine-xl-...
https://cagliostrolab.net/posts/animagine-xl-v3-re...
Linaqurf氏らがSDXLベースのアニメモデル「Animagine XL 3.0」を公開した。
NovelAI V3に迫る性能を誇り、Quality TagsなどもありNAI3に近い感覚で使用できるかも。
これでもsd-scriptsの勾配が同期されない不具合で学習がうまくできてない可能性があり、今後の更なる進化に期待できる。
参照:AnimagineXL3.0tips
https://cagliostrolab.net/posts/animagine-xl-v3-re...
Linaqurf氏らがSDXLベースのアニメモデル「Animagine XL 3.0」を公開した。
NovelAI V3に迫る性能を誇り、Quality TagsなどもありNAI3に近い感覚で使用できるかも。
これでもsd-scriptsの勾配が同期されない不具合で学習がうまくできてない可能性があり、今後の更なる進化に期待できる。
参照:AnimagineXL3.0tips
このページへのコメント
Emi3は内容云々以前にその情報要る?誰か使ってますか?
実際
差分学習以降、そんなに大きな変化はないものなぁ。
五月に入ってから更新されなくなったのなんでかと思ったが
FANBOXのAI出禁事件が五月十日あたりとやる気無くなった理由わかりやすすぎる
単純に黎明期が過ぎて波風立たなくなったからじゃないですかね
情報収集用に。色々書かれているサイトがありました
ttps://www.sdcompendium.com/doku.php?id=start
浦島イラストいいね