###抽出結果
指定されたモデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する話題のみを抽出。該当なしのモデル(NAI, Pony, illustrious)は言及ゼロのため省略。
各モデルの言及をレス番号順にまとめ、選ばれている理由(または選ばれない理由)が明示的な場合を太字で強調。文脈上関連する周辺話題も含むが、抽出は厳密にモデル名に紐づくものに限定。
FLUX / flux / FLUX2 / flux2 / Flax2 / Flux.1 / Flux.2
- 855: flux2用にDDR5x4枚の256GB準備したらいくらするんやろ。grok2だかが300GBらしいからpro6000も入れたらローカルで動かせそうなおそろしいわ。
- 856: fp8TEなら初回ロード時にSSDちょっとえぐられるだけや。Flax2はクソ重いし遅いしそこまでの価値あるんかってレベルやから多分常用はしないと思うで。
- 859: ae.safetensorってことはfluxのようやが、flux1の長い生成時間を思い返すとこんなすぐに出るんやなと感心やわ。(z-image + wan2.2との組み合わせ文脈)
- 861: flux2くんはハイスペ勢も「ローカル最高峰動作確認ヨシッ!」をして早々にFlux1に戻ってそう。
- 885: flux2は驚き屋の餌って感じやね ちょっと常用はできない。
- 891: メモリ不足でFLUX2は死産ゴ。
- 894: flux2で検索すると「こんなにすごい!!(公式サイトを引用)」 「試しに出してみました!これはすごい!!(単純な1girl構図)」な感じで笑った。flux2で驚くところは容量がでかくて遅いところぐらいや。Z-Image-Turboの高速生成でプロンプト練ってQIE2509で再生成が楽しい。(flux2の代わりに高速モデル使用)
- 895: flux2で検索すると宣伝ばかり。
- 896: fp8の方のテキストエンコーダーだけで16GB超えは流石にでかすぎんよ。(FLUX fp8版のメモリ消費)
- 902: flux2_dev_fp8mixedとmistral_3_small_flux2_bf16でロード時に完全フリーメモリーが1.3Gくらいまで減るけど実際は余裕。生成が始まっても58Gくらいが実使用なので全然余っている。64Gだとちょっとつらくて96Gなら十分。(WSL2 + 4090での動作確認、メモリ十分ならOK)
- 969: FLUX2も肌色多いの渡すと改変して出力してくるな、まあ何かしらの性的要素ナーフは内部でしてるんだろう。
- 972: Flux.2は意図してフィルタしている。Z-Imageは学習をしていない。大きな違いがある。
選ばれている理由まとめ: 高スペックPC(256GB RAM + pro6000想定)でローカル動作可能(855,902)。選ばれない主な理由: 重くて遅く容量デカいため常用不可・Flux1に戻る・メモリ不足で死産・フィルタ強め・宣伝過多(856,861,885,891,894-896,969,972)。
Wan / wan2.2 / Wan(Smoothmix) / EasyWan22
- 859: z-image + wan2.2(非smooth) + mm-audio。サンプルの持ち手の指… wan用画像として使えそうやな。
- 881: Wan(Smoothmix)ループさせる定石ってあるんやろか?(ループ動画作成試行、ポッピング問題)
- 927: 短いけどWanで動画化。(Gemini産フィギュア画像の高画質化後)
- 968: EasyWan22最後の更新からちょうど2ヶ月。Zuntanニキ元気にしてるんやろか?(更新停止懸念)
- 980: Qwenやzimageってforgeじゃ使えないんだよね?(forge非対応のためComfyUI移行検討、Wanは文脈上zimage関連か)
選ばれている理由まとめ: wan用画像生成・動画化・ループ動画に適する(859,881,927)。EasyWan22の更新停止が懸念(968)。
Qwen / Qwen image edit / QIE / QIE2509 / Qwen2509 / Qwen image edit2509
- 863/865: Qwenで2枚の画像を使ってinpaintしたくて…ノードが足りないエラー。(ワークフロー使用試行)
- 872: Qwen image edit(無印)で複数画像を予め結合… Qwen image edit2509 最新状態のComfyUI環境作ってテンプレ開いてモデルダウンロードで完成。(複数画像参照に最新版推奨、古い版はめんどい)
- 879: のワークフローで… QIE2509。(マスクで画像入れ替え)
- 884: そもそもなんでQIE2509やなくて古いQIE使うんや。しかもそれはMultiGPUローダーやから削除して通常ローダーに差し替え。着せ替えなんてQIE2509の基本ノード(公式ワークフロー)だけで済むやろ。
- 889: ロードするモデルをQIE2509に書き変えたらワークフロー使えんやろかと思ってた。公式ワークフローだと顔が勝手に書き換えられてしまうからマスクして絶対変わらんようにしたかった。
- 892: QIEとQIE2509のprompt入力欄は違うで。一応生成できた気はするけど。
- 894: QIE2509で再生成が楽しい。(Z-Image-Turboの高速生成後の仕上げに)
- 897: CivitaiにQwen2509のinpaintワークフローが転がってるからそれ使った方が早い。
- 900: マスクして書き換えはこれ。(Qwen inpaint関連ワークフロー)
- 905: 使えてる2509のワークフローにVAEエンコードと潜在ノイズマスクを挿入したら行けるやろかと試したけどノイズのまま。(トラブルシュート)
- 915: SimpleComfyUiはSetup-QwenImageEdit2509.batしたらそれだけで使えるのがありがたい。(簡単セットアップの利点)
- 975: Qwenでも日本語は弱いんで英語か簡体字に翻訳した方がええで。
- 980: 最新のQwenやzimageってforgeじゃ使えないんだよね? これを気にComfyUI始めようかしら。(forge非対応のためComfyUI移行検討)
選ばれている理由まとめ: inpaint・複数画像参照・着せ替え・マスク書き換え・高画質化・再生成に便利(基本ノードで済む、公式WF、Civitai WF豊富)(863-865,872,879,884,889,892,894,897,900,905)。最新版(2509)推奨で簡単セットアップ可能、日本語弱め(872,884,915,975)。forge非対応でComfyUI必須(980)。
Noobai / noob
- 871: Tongyi-MAIがnoobに興味を示してるのが重要なのでは。noobがダメでも協力してアニメデータセット提供してくれるところが現れるかもしれないし。
- 876: 既にデータセットもノウハウも確立してるnoobに打診してる時点で、空振りなら頓挫か自分とかでやるかやろ。
選ばれている理由まとめ: データセット・ノウハウ確立済みで企業(Tongyi-MAI)興味あり、アニメデータセット協力可能性(871,876)。
全体補足
- 抽出対象外(Z-Image, Z-Image-Turboなど)は多数あるが、省略。
- 理由抽出は「高速」「簡単」「常用不可」「メモリ不足」「フィルタ」などの明示的なものを優先。ログ全体でFLUX系は「重い・遅い・常用NG」が最多批判、Qwenは「inpaint・編集特化」で好評、Wanは「動画・ループ」用途、Noobaiは「企業注目」で将来性。
抽出された生成AIモデルに関する話題(除外リスト外のみ)
ログ全体から、生成AIの「モデル」として明確に言及されているものを抽出。除外リスト(NovelAI, Pony, illustrious, Noobai, FLUX, Wan, Qwen)に該当しないものに限定。主なものはZ-Image系(Z-Image, Z-Image Turbo, z-image, Z image)が複数箇所で登場。他は散発的。選ばれている理由や特徴言及を併記。
Z-Image / Z-Image Turbo / z-image / Z image
- 850: 「週末はZ-Image Turbo試しまくるぞ!」(試用意欲の高さ)。
- 859: 「モデルデータの断捨離少しできたからワイもz-imageデビューしたでー z-image + wan2.2(非smooth) + mm-audio … ae.safetensorってことはfluxのようやが、flux1の長い生成時間を思い返すとこんなすぐに出るんやなと感心やわ」(flux似だが高速生成で感心、デビュー・常用検討)。
- 894: 「flux2で驚くところは容量がでかくて遅いところぐらいや Z-Image-Turboの高速生成でプロンプト練ってQIE2509で再生成が楽しい」(高速生成が魅力、プロンプト練り用に選好)。
- 905: 「最新のQwenやzimageってforgeじゃ使えないんだよね?」(ComfyUI移行検討の文脈で言及)。
- 967: 「zimageは何か頑なに股間を隠すんだな ボディスーツでも股を開いたポーズでは座ってくれない」(股間隠蔽傾向の特徴指摘)。
- 972: 「Flux.2は意図してフィルタしている。 Z-Imageは学習をしていない。 大きな違いがある」(フィルタなし・未学習のためクリーン?と差別化)。
- 980: 「最新のQwenやzimageってforgeじゃ使えないんだよね? これを気にComfyUI始めようかしら」(forge非対応ゆえComfyUI移行動機)。
- 995: 「Z image、おっぱい出さそうとしたらチューブトップ着てガードするんだがw」(性的表現ガード傾向の特徴)。
選好理由まとめ: 高速生成(flux比で即時出力)が最大の魅力。プロンプト練りやデビュー用に積極採用。日本語弱く股間/性的ガード強いが、未学習でフィルタ薄め。forge非対応でComfyUI推奨。
Grok / grok2
- 855: 「flux2用にDDR5x4枚の256GB準備したらいくらするんやろ grok2だかが300GBらしいからpro6000も入れたらローカルで動かせそうやなおそろしいわ」(300GB規模でハイスペPC想定、ローカル動作可能性)。
- 898: 「Grok」(単独言及、日常/非日常生成?の文脈)。
選好理由: 巨大容量(300GB)ゆえハイエンドPC前提のローカル運用魅力。
Gemini
- 873: 「Gemini産のフィギュア画像にハマったんだが 買うから実際に作ってくれ」(フィギュア画像生成にハマり、物理化依頼)。
選好理由: フィギュア画像クオリティの高さにハマる。
LTX.2
- 866: 「なんか2025/11/30までのLTX.2の謎のカウントダウンサイトが出来てた。 公式かフェイクか…」(カウントダウンサイト登場、公式/フェイク議論)。
選好理由: 言及なし(今後のリリース期待?)。
Tongyi-MAI
- 871: 「Tongyi-MAIがnoobに興味を示してるのが重要なのでは。noobがダメでも協力してアニメデータセット提供してくれるところが現れるかもしれないし」(noobai関連協力可能性)。
選好理由: noobai系データセット協力の橋渡し役として重要視。
Hunyuan 3D
- 877: 「nano banana => Hunyuan 3D => Zbrush => 3Dプリンタ でGo! なお塗装は自前w」(Gemini産フィギュア物理化フローで3Dモデル生成用)。
選好理由: フィギュア物理化工程(3Dプリンタ前)で活用。
その他散発的・曖昧言及
- 860: 「Lepton Hydro Extreme WSX870A」(モデル名不明、CPU/メモリ構成の一部?生成AIモデル非該当の可能性高)。
- 902: 「mistral_3_small_flux2_bf16」(Flux2派生?flux関連除外寄りだが独立モデル?ハイスペ動作確認文脈)。
- 998: 「あπ出たわ」(πモデル?詳細不明、リアルすぎて不評)。
全体傾向: Z-Image系が圧倒的に話題中心(高速・クセ強めで実用議論活発)。他は補助的/未来志向。ハードスペック議論(メモリ128GB+、5090等)と絡みローカル運用前提。