抽出結果: 指定モデルに関する話題まとめ
ログ全体をスキャンし、指定されたモデル(NovelAI (NAI), illustrious(イラストリアス, リアス,ill,IL), FLUX, Wan, Qwen-Image, anima, Z-Image(Z-Image Turbo,ZIT,ZIE))の言及をすべて抽出。FLUXおよびZ-Image(Z-Image Turbo,ZIT,ZIE)に関する言及は一切なし。Qwen-Imageの直接言及なし(Qwen3.5やQwen3-VLなどの関連Visionモデル言及あり)。各モデルの話題を投稿番号付きで時系列順にまとめ、特に選ばれている理由(利点、強み、比較優位性など)が明記されているものは太字で強調。
NovelAI (NAI) / NVA
- 443: 「Nva部なのにnovelaiの話、誰もしてない(笑)。最近は、版権ものの再現性はnva以外のローカルはどうですか?以前はstable diffusion使ってたけど、novelai v3ぐらいから、かなり原作そっくり度が上がった一方でStable diffusion関係は権利関係で進化が止まり使わなくなっちゃいました」
- 選ばれている理由: 版権ものの再現性が高く(原作そっくり度向上)、ローカルSDの進化停滞との比較で優位。
illustrious (イラストリアス, リアス, ill, IL)
- 277: 「»253 横からやけど、SDXLがclip_gとlやったな ワイはリアスのやつ取り出して名前変更したせいで忘れてたわ」
- 使用例: CLIP抽出時のモデルとしてリアスを使用。
- 410: 「anima previewでキャラ色々出してみた 単体だと結構まともに出るけど複数になると途端に似なくなるんよな リアスやnoobなら複数キャラでも生成できるんやけどな」
- 選ばれている理由: 複数キャラ生成でanimaより安定(animaは複数キャラで似なくなるのに対し)。
Wan (主にWan2.2関連)
- 310: 「easywanをいい加減卒業せなあかんな」
- 324: 「今のComfyUIはgguf使わん方が早いで んでモデルローダーで両方Highモデルを読み込んでるのが原因や あとWan2.2の動画の長さは81、フレームレートは16が基本やで」
- 使用Tips: High/Lowモデル組み合わせ、動画生成パラメータ。
- 361: 「Wan2.2 remix v3を試すために自分のwfで生成したんだ でも以前まで120秒ほどの処理が150秒まで遅くなってた」
- 371: 「smoothmixV2はLight2xvがマージされてないのでstepを20位に増やさないとだめ… Light2xvLoRAをHigh側を3.0 Low側は1.5位でかけると多分うまく行くはず」
- Wan2.2 remix v3/smoothmixV2の最適化Tips(LoRA併用でモザイク回避)。
- 372: 「smoothmixV2はLight2xvがマージされてない…Light2xvLoRAをHigh側を3.0 Low側は1.5位でかけると多分うまく行くはず」
- 375: 「High,lowSmoothにしてLight2xvの強度3.0と1.5に変えてもだめstep20にして生成してみてもモザイクのまんま」
- 381: 「comfyuiってかwanはモデルによってlightning高速化がモデルに入ってたりなかったりややこしいからな ノード繋げる順番だって普通に難しい」
- 384: 「このらいとにんぐろーらつかいなはれ そうすてっぷは4できりかえは2でもいける」
- 385: 「自分の環境でもなったわ… »384のLoRAでバグった事ないからこっちにしとき Low側をt2vにすると結果がいいとも聞いたで」
- 選ばれている理由: Lightning LoRA併用で安定(バグ少なく、Low側t2vで結果向上)。
- 437: 「»370 wanでi2iすればディテールマシマシになる(特に背景)」
- 選ばれている理由: i2iでディテール向上(背景強化)。
Qwen-Image / Qwen関連 (Qwen3.5, Qwen3-VLなどVisionモデル)
- 293: 「rtx5090 vram32gbならqwen3.5はどのモデルがおすすめ?」
- 294: 「qwen3.5は30GB越えたあたりから次の必要スペックが60GBとか70GBになるから27Bのが現実的なところやないかな コンテキストの余裕のこして27Bの4bit, 8bitあたりが限界 MoEが思ったよりも結構速いからコスパ求めるなら35Bの4bitあたりか」
- 選ばれている理由: VRAM制約下で27B/35Bが現実的・コスパ良(高速)。
- 308: 「»293 27B Q6 でコンテキストサイズ24Kがええ」
- 選ばれている理由: コンテキスト24K対応で最適。
- 311: 「»293 huihui_ai/qwen3.5-abliterated :35b Q4_K_M 24GBがベストだと思う 何に使うかにもよるけど、NSFWワードとかエロ画像の理解と表現力は賢くなればなるほど良くなる。例えロードが重くてもこっちの要望を汲んでくれる理解力は高ければ高いほどイライラしない」
- 選ばれている理由: NSFW/エロ画像理解・表現力が優れ(賢いほど良い)、要望理解でイライラ少ない(35B推奨)。
- 319: 「画像の読み込みキャプションに使うとして ・Qwen3.5(Vision対応版)があればQwen3-VLは不要?(同じくらいのサイズと量子化なら3.5のほうが賢い?) ・ファイル名にcaptionと付いてるモデルは画像キャプションに特化…Huihui-Qwen3.5-27B-abliteratedではなくGliese-Qwen3.5-27B-Abliterated-Captionを使って違いが分かるもの? とりあえずQwen3.5のCaptionあり・なし、Qwen3-VLのCaptionあり・なしの4モデルを使ってるけど」
- 比較質問: Qwen3.5 vs Qwen3-VL、Caption特化版の違い検証中(明確な選好なし)。
anima (anima preview2など多数)
- 246: 「ちびたいからanimaでも使える?dmd2を持ってきたら出力が自分好みになった」
- 251: 「»246 Animaの強みでもあるけど、絵柄が暴れなくなっていいね。同軸評価は出来んがSpectrumより更に早くてありがてえ」
- 選ばれている理由: 絵柄安定(暴れにくい)、Spectrumより高速。
- 258: 「animaプレビュー2+画風loraの環境で高速化loraお試し 使うと発色が単調になってSDXL風味になるかも?副作用で細部が更に綺麗に出やすくなる気がするし個人的には結構いい」
- preview2 + LoRAで高速化/細部向上。
- 273-276,299: DMD2/cottonanima_preview2併用で日本語崩れにくく、解像度/線が向上、好みの画風出しやすい。
- 選ばれている理由: 高速LCM/低stepで高品質(素のanima超え)。
- 310: 「Animaで生成するだけならもっと簡単なんやろか?」
- 335: 「»310 anima使うならデフォルトで左にあるテンプレでanimaって検索して最初に出てきたテンプレ選ぶだけだぞ」
- 343: 「animaで下手に服装を翻訳して入力するとよくマルチプルビューになるんやけど ローカルLLMに直してって言って通すと綺麗に直る」
- 345: 「preview2を3時間くらいしか触ってないけどワイもそう感じる なんか自然言語の文章ごとにちっさいキャラクターが生成されることが増えた」
- 347: 「Animaは今のままでも十分ええんやけど、欲を言えばやっぱりQwen0.6Bが足引っ張ってる感ある」
- 349: 「animaに関しては正直sdxl民でも動かせるサイズ感だったってのがだいぶ影響してると思う」
- 選ばれている理由: SDXLユーザーでも軽量で動く(話題性高)。
- 354: 「Animaの公式WFを見ればどれぐらいの難易度なのかすぐ分かるやろ これが分からなかったらもうComfyUIは無理ってぐらい簡単」
- 406: 「今更animaでよちよち歩きしだした」
- 408: 「Anima Lora作成はかどってる」
- 410: 「anima previewでキャラ色々出してみた 単体だと結構まともに出るけど複数になると途端に似なくなる」
全体傾向: animaが最多言及(高速・安定・軽量・簡単さが主な選好理由)。Wanは動画/高速化Tips中心。Qwen3.5はVRAM/NSFW最適化。NovelAI/illustriousは比較優位性で言及。
抽出された生成AI「モデル」に関する話題(除外モデル除く)
以下は、ログから生成AIのモデル(主に画像/動画生成やLLMモデル)に関する話題を抽出。除外リスト(NovelAI, illustrious/リアス/ill/IL, FLUX, Wan, Qwen-Image, anima, Z-Image系)以外のもののみ対象とし、モデル名が明確に言及され、選ばれている理由や特徴が述べられているものを優先。文脈的にツール/ノード(例: Spectrumノード)と区別してモデル限定で抽出。
1. DMD2 (wai16DMD2)
- 243-257, 273, 299, 309, 316: SDXLモデルからUNET/CLIP/VAEを分割抽出して使用(»253, »257でJSON/WF共有)。anima環境で導入すると「出力が自分好みになった」「Spectrumより更に早くてありがてえ」(»246, »251)。Spectrumと併用不可で「効果が無い」「相性最悪、推奨パラメータで動作しない」(»309, »316)。8steps/1cfg/LCMで素のモデルより「日本語崩れにくく、解像度/線が向上」(»299)。
- 理由/選定点: 高速生成(4-8step対応)と画質安定性で選ばれ、SDXLベースのCLIPファインチューニングを自前抽出推奨。
2. SDXLモデル (一般/clip_g, clip_l)
- 253, 277: UNETだけでなくCLIPもファインチューニング/LoRAマージで変更されるため、「実際に使うSDXLモデルから取り出して使用」(»253)。SDXLは「clip_gとclip_l」(»277)。
- 理由/選定点: 専用抽出でカスタム対応可能。標準チェックポイント読み込みでカスタムノード不要(»257)。
3. qwen3.5 (LLMモデル: 27B/35B系, abliterated版)
- 293-294, 308, 311: RTX5090 VRAM32GB推奨は「27Bの4bit/8bitが限界、MoEで35B 4bitコスパ良い」(»294)。「27B Q6でコンテキスト24Kがええ」(»308)。ベストは「huihui_ai/qwen3.5-abliterated 35B Q4_K_M(24GB)」(»311)。
- 理由/選定点: NSFW/エロ画像理解・表現力が「賢いほど向上」「軽いモデルはイライラする検討違い出力」(»311)。30GB超で次スペック急増のため現実的サイズ選定。
4. qwen3.5 Vision対応/Caption特化版 (Gliese-Qwen3.5-27B-Abliterated-Caption等)
- 319: 画像読み込みキャプション用。「Qwen3.5(Vision対応版)があればQwen3-VL不要?(3.5の方が賢い)」「Caption特化(ファイル名にcaption付き)vs非特化(Huihui版)の違い」「Captionあり/なし+Qwen3-VLの4種比較中だが違い不明」。
- 理由/選定点: 画像キャプション特化でフォーマット違い? Vision性能比較検討中。
5. smoothmixV2 (gguf/safetensors版)
- 310, 324, 371, 372, 375, 384-386: gguf版選択でモザイク発生、safetensors版が「ずっと早い」(»371)。High/Low両smoothmixでモザイク→Lowをdasiwaに変更で解決。step20推奨だが非現実的→Light2xv LoRA(High3.0/Low1.5)併用で高速化(»372, »384)。rank_quantile_0.15でノイズバグ報告(»385)。
- 理由/選定点: ggufよりsafetensorsが高速・安定。LoRA併用でstep4-20対応、低VRAM実用性。
補足
- 全体傾向: DMD2/qwen3.5/smoothmixV2は速度・VRAM効率・NSFW適性で積極選定。SDXLはカスタム抽出前提。
- 除外適用: anima/Spectrum(ノード技術)/Wan2.2関連smoothmix一部文脈スキップ。LLMのqwen3.5はQwen-Image以外のため抽出。
- モデル以外(UI: Forge/reForge/ComfyUI, LoRA一般, ハード: RTX5090/Arc B580)は対象外。不明瞭/除外文脈のみ省略。