以下は、提供された5chログ(238から441までの投稿)から、指定された生成AIモデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する話題をすべて抽出・整理したものです。抽出の基準は以下の通りです:
- 各モデルの言及を投稿番号とともにリストアップ。
- モデルの名前や派生形(例: Qwen Image Edit, WAN2.2など)が登場した場合に抽出。
- モデルが選ばれている理由(利点、欠点、比較など)が明示的に述べられている場合、それも抽出。
- 抽出はログの文脈に基づき、重複を避けつつ要約。
- 話題の文脈が不明瞭なものはそのまま記述。
NovelAI (NAI)
- 410: NovelAIの期限が切れたという話題。次のアップデートまで休むか検討中だが、規制が怖いという懸念あり。
- 選ばれている理由: 特になし(期限切れの文脈)。楽しめるうちに使いたいというニュアンス。
Pony
- 299: Pony魔人のSDXL以前のモデルが、新モデルや次世代のイラスト/動画で全然使えるという話題(68GBでもさくさく動く)。
- 選ばれている理由: SDXL以前のモデルとして普及しやすく、スペック要求が低い(新UIでさくさく)。
- 350: Ponyのライセンスは生成物販売禁止だという記憶(リアスと並べて言及)。
- 選ばれている理由: 特になし(ライセンスの制限の文脈)。
illustrious(イラストリアス, リアス,ill,IL)
- 257: リアス製のアニメLoraを使ったテスト。kashiwaモデルで3D保持能力が高く、Loraの効果もしっかり感じられる。
- 選ばれている理由: アニメLoraとして効果的で、リアル寄り人体構造なアニメキャラLoraと相性が良い(3Dを2Dに近づけつつ維持)。
- 261: 二次絵モデルのリアス系の方が構図やポーズがいい感じに出る。
- 選ばれている理由: 構図やポーズが出しやすい(実写系モデルで厳しい構図も二次絵モデルなら出しやすい)。
- 350: リアスのライセンスは生成物販売禁止だという記憶(Ponyと並べて言及)。
- 選ばれている理由: 特になし(ライセンスの制限の文脈)。
- 369: 学習データセットがベースIL1.0や0.1なら良いが、wai系統でグチャるという話題。
- 選ばれている理由: 学習データセットのベースとして有効(同じ設定でwai系統より安定?)。
Noobai
- 257: Noobなら同じ強度のLoraで2.5Dくらいまで落ちるところを、kashiwaは維持しているという比較。
- 選ばれている理由: 特になし(比較で劣る点が指摘)。
- 261: 二次絵モデルのnoob系の方が構図やポーズがいい感じに出る。
- 選ばれている理由: 構図やポーズが出しやすい(実写系モデルで厳しい構図も二次絵モデルなら出しやすい)。
- 376: Wan shuffle noobを使っているため、自然言語の効きがわからないという話題。
- 選ばれている理由: 特になし(Wanとの組み合わせの文脈)。
FLUX
- 259: 生成された画像をFluxで修正していたが、ワークフローを組んでDetailerで各部修正するように変更。
- 選ばれている理由: 修正用として使われていた(二次絵から実写化の修正に有効)。
- 263: Qwenの話題が多いが、実写はFluxの方が強い。
- 264: 実写はFLUXが強い。Qwenは顔がAI仕様だがアニメ系は強いという比較。
- 選ばれている理由: 実写生成が強い(Qwenより優位)。
Wan
- 240: EasyWanVideo22をインストールして動画生成中、Tritonエラーが出るというトラブル。
- 選ばれている理由: 特になし(インストール/トラブル解決の文脈)。
- 251: EasyWan22ならModel Loaderのattention_modeをsdpaに変更する提案。
- 選ばれている理由: 特になし(トラブル解決の文脈)。
- 265: Waiちゃんを信じろ(おそらくWanの派生)。
- 270: WAIで使ってるテンプレプロンプトをベースにしているが、手がぐちゃったり色合いが変になるというトラブル。
- 選ばれている理由: テンプレプロンプトとして使われている(出力調整中)。
- 293: Wan2.2はメモリを大量に使ってもGPUコアがしっかり稼働する(Qwen比)。
- 選ばれている理由: メモリ大量使用時でもGPUコアが稼働しやすく、生成効率が良い。
- 314: WAN2.2の生成時間への影響なし(環境テストの文脈)。
- 選ばれている理由: 特になし(生成時間テストの文脈)。
- 368: Wan videoのカメラプロンプトが強化されるらしいという話題(試した人いる?)。
- 選ばれている理由: カメラプロンプトが強化され、背景含めて激しいカメラワークが可能。
- 371: 上記の強化版を入れたがまだ試せてない。
- 373: Wan videoの強化版は癖があり、早々に諦めた。サンプラー次第で彩度落ちやLoRAが動かない。
- 選ばれている理由: 特になし(欠点指摘:癖が強く、環境次第で不安定)。
- 376: Wan shuffle noobを使っている。
- 選ばれている理由: 特になし(自然言語テストの文脈)。
- 407: 久々にWAN2.2に触れて、ハイとロー2回ずつやるワークフローを弄っている。
- 選ばれている理由: 特になし(再開/調整の文脈)。
Qwen
Qwen関連の言及が非常に多く、主にQwen Image Edit (QIE)や2509版を中心に議論されています。以下に整理。
- 248: Qwenに比べると背景処理が見劣りするが、NetaYumeLuminaが落とし所かも。自然言語を使える利点でQwen image editで背景仕上げ。
- 選ばれている理由: 背景仕上げに強く、自然言語対応が明確な利点(SDXLからの進化)。
- 263: Qwenの話題が多いが、実写はFluxの方が強い。
- 選ばれている理由: 特になし(話題の多さの指摘)。
- 264: Qwenは顔がAI仕様だが、アニメ系は素でかなり強い。エロファインチューンが来るか不明。
- 選ばれている理由: アニメ系生成が強い(イラスト系で覇者になりそう)。
- 267: QIE2509で顔崩れの印象なし。NSFW系LoRAを抑え目に使うと良い。BF16で高解像度生成可能だが遅い。
- 選ばれている理由: 顔崩れが少なく、NSFW対応可能(LoRA調整で十分)。
- 274: QIE2509の生成で細部がほぼ破綻しないのがすごい(2枚目の評価)。
- 278: Qwen-imageのLoraをオンラインで学習するためのチュートリアルを探している(情弱で基礎からわからない)。
- 選ばれている理由: 特になし(学習チュートリアルの文脈)。
- 280: Qwenデビュー。既存画像にエフェクトかけるのが楽で、薄暗い部屋も一瞬で出る。
- 282: Qwen image editでLoRA作成不要でポン出し→後処理で調整可能。商売になるレベル(逮捕例あり)。
- 選ばれている理由: LoRA不要で高精度編集可能(犯罪レベルに精巧)。
- 283: Qwen Image EditはNano Bananaを超えたと言われている。Bananaよりフィルタリングが緩い。
- 選ばれている理由: Nano Bananaを超える編集性能(フィルタリングが緩い)。
- 287: NetaYumeLuminaのLoRA作成でFlorence2のキャプションを試すが、Qwenの精度が甘いためノイズ要因。
- 選ばれている理由: 特になし(キャプション精度の欠点指摘)。
- 288-290, 309: Qwenのメモリ要求が高く、32GBメモリではキツイ。Qwen-Image-Edit-2509なら4070TiS環境でI2Iがサクサク。
- 選ばれている理由: 高スペック要求だが、低VRAMでもメインメモリ逃がしで生成可能(編集精度が高いためGGUFの犠牲が大きい)。
- 291-293, 314: QIEのBF16はVRAM40GB必要で生成時間が長いが、Step4 CFG1 LoRA3個で1024x1024が21秒(初回+20秒)。
- 選ばれている理由: 高解像度生成可能だがスペック要求が高い(Wan2.2より生成時間が長い欠点)。
- 316: Qwenで2次ロリの背景入れ替えを試すが拒否される(察しが良すぎ)。
- 383: カエルの卵生成でQwenなら学習してる可能性あり。
- 選ばれている理由: 特定のオブジェクト(カエルの卵)が学習されている可能性。
- 384: QwenをAItoolkitでLola量子化して学習中。ComfyUIでそのまま使えるか?
- 選ばれている理由: 特になし(量子化/学習の文脈)。
- 385: Qwenでアナルからゼリーをひり出した後の雰囲気が難しい。
- 選ばれている理由: 特になし(生成の難しさの文脈)。
- 394: 768x768で350エポック学習したが性器描画がイマイチ。Qwen Image EditのLora作成は3060 12GBでキツイ。
- 選ばれている理由: 描画力が高いが学習時間が長くスペック要求が高い(1024x1024推奨)。
- 412: QIE-rapid-AIOで有名人を脱がし放題。
- 選ばれている理由: 脱衣/編集が容易(微妙という評価も)。
- 417: QwenIEとtaggerGUIでオリキャラLoraが簡単に作れて感動。
- 422: QIE2509の光源を変更するLoRAがかなり使えそう。
- 427-428: QwenのT2IはQwen-VL不要で使える。
- 430: QIE-rapid-AIOのワークフロー依頼。
- 選ばれている理由: 特になし(ワークフローの文脈)。
- 437, 439-441: QwenのLora作成はVRAM24GBあっても難しいが、16GBでblockswap全盛りで1328x1328学習可能。ただし劣化したものしか作れない場合あり。
- 選ばれている理由: 学習サイズが大きくスペック要求が高い(24GBないと劣化)。
以下は、提供された5chのログから、生成AIの「モデル」に関する話題を抽出・整理したものです。抽出の基準は以下の通りです:
- 生成AIのモデル名(またはそれに準ずるもの)が明示的に言及されている部分を対象とします。
- 除外モデル一覧(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に該当するモデル(例: Qwen関連の2509, QIE, Qwen-Image-Editなど)は一切抽出していません。これらが含まれる文脈でも、除外モデル部分を無視し、他のモデルに関する言及のみを抽出します。
- モデルが選ばれている理由(利点、比較、用途など)が明記されている場合、それを強調して抽出します。
- ツールやソフトウェア(例: ComfyUI, Triton, CUDA, taggerGUIなど)はモデルではないため抽出対象外としますが、モデルとの関連で言及されている場合に限り、モデル部分のみ抽出。
- 抽出はログのレス番号を基に整理し、重複を避けてまとめています。抽出対象が少ないため、簡潔にまとめました。
抽出されたモデル関連の話題
- SDXL (Stable Diffusion XL):
- 関連レス: 245, 247, 248, 267, 278, 279, 286, 299, 303, 340.
- 抽出内容: SDXLが自然言語を使える点が明確な利点として挙げられ、NetaYumeLuminaとの組み合わせで使用されている。LoRAの学習チュートリアルが少ないが、PixAIでのLoRA学習ではSDXL用のパラメータが無難に設定されていると評価。エスカレーターの出力があまり綺麗でないという欠点も指摘。VRAM8GBで動作可能だが、次の世代の要求スペックが倍々ゲームで増えるため、16GBや24GBでは足りないという懸念。選ばれている理由: 自然言語対応の利点、LoRA試行錯誤のコストパフォーマンス、構図やポーズの出しやすさ(二次絵モデルとして実写化のベースに使用)。
- NetaYumeLumina:
- 関連レス: 247, 248, 287.
- 抽出内容: SDXLベースのSteps設定で学習可能。背景処理が見劣りするが、LoRAの試行錯誤と量産コストを考えると落とし所として有効。自然言語対応が利点で、画風LoRA+キャラLoRAとの組み合わせを推奨。LoRA作成ではFlorence2(自然言語キャプション)とWD14Tagger(タグ方式)を試したが、Florence2の精度が甘くノイズ要因になるため、タグ方式のみが推奨。選ばれている理由: SDXLからの自然言語利点、LoRA量産のコストパフォーマンス、背景仕上げの柔軟性(他のツールとの組み合わせ)。
- Botan (V3_3):
- 関連レス: 245.
- 抽出内容: 高品質なモデルとして評価。CFGやStepsはV3_0のサンプルを参照可能。選ばれている理由: 高品質さ(初めて使ったユーザーから感謝の声)。
- kashiwa:
- 関連レス: 257.
- 抽出内容: LoRAテストで3D保持能力が高く、アニメLoRAとの組み合わせで2.5Dまで落ちにくい。リアル寄り人体構造なアニメキャラLoRAとの相性が良い可能性。選ばれている理由: 3D保持能力の高さ、LoRA効果のしっかりした発揮(ガチャ時の維持力)。
- Florence2:
- 関連レス: 287.
- 抽出内容: NetaYumeLuminaのLoRA作成で自然言語キャプションとして使用したが、画像→英文の精度が甘くノイズ要因になる。他の選択肢(高精度&バッチ処理可能&エロ画像対応)が厳しいため、手動自然言語説明が最強だが面倒。選ばれている理由: 自然言語キャプションの生成(ただし精度不足が欠点)。
- WD14Tagger:
- 関連レス: 287.
- 抽出内容: NetaYumeLuminaのLoRA作成でタグ方式キャプションとして使用。Florence2よりノイズが少なく、タグ方式のみでLoRA作り直しを検討。選ばれている理由: タグ方式の安定性(自然言語方式の代替として)。
- grok:
- 関連レス: 418.
- 抽出内容: ブレずに綺麗な出力が可能。ただし指定に矛盾があるとおかしくなる。選ばれている理由: 出力の綺麗さと安定性(ブレない点)。
- ChatGPT (チャッピーちゃん):
- 関連レス: 431, 432, 434.
- 抽出内容: わからないことには「そのようなデータは確認できませんでした」と回答するようになり、印象が良い。エラー対応でループが発生するが、提案に基づくトラブルシューティングが可能。ストアアプリの不具合修正を試みたが、サーバー側の問題だった。選ばれている理由: わからないことを正直に答える改善点、エラー対応の柔軟性(ただしループの欠点あり)。
- smoothmix:
- 関連レス: 390.
- 抽出内容: tensor rifeとupscaleを入れたが、胸の揺れなどで線の周りがぼやける問題が発生(4x anime sharp使用)。選ばれている理由: 動画のアプスケ処理(ただし動きの激しい部分でのぼやけが欠点)。
抽出の補足
- 上記のモデルは除外リストに該当しないものを厳密に選定しました。ログ全体でQwenやFLUX、Wan関連の言及が非常に多かったため、抽出量は少なくなっています。
- 理由の抽出: 各モデルについて、ログ内で利点(例: コストパフォーマンス、出力の安定性)や欠点(例: 精度の甘さ、ぼやけ)が明記されている場合に抽出。単なる言及(例: 名前だけ)では抽出していません。
- もし追加のログや詳細なフィルタリングが必要であれば、 уточнитеください。