抽出された生成AIモデルに関する話題
ログ全体をスキャンし、指定されたモデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する言及をすべて抽出。NovelAI (NAI) と FLUX は一切言及なし。他のモデルの話題をレス番号付きでまとめ、特に選ばれている理由が明記されている場合は強調。
Qwen(主にQwen3-VL-8B-NSFW-Caption-V4.5関連)
- 886: 「このスレ的にはQwen3-VL-8B-NSFW-Caption-V4.5一択だと思うよ エロちゃんと行けるのこれしかないし 健全絵のときにエロの追加学習分はノイズになってるだろうけど、とりあえずは健全絵は健全絵の説明としてちゃんと出るし」
選定理由: このスレッド(なんJ)では一択。エロ画像をちゃんと扱える唯一のモデル。健全絵もノイズが入るが説明としてちゃんと出力可能。
- 887: 「qwen3-vl-8b-nsfw-caption-v4.5のQ8 画像にWF入ってるよ」
- 888: 「訂正 Q6_Kだった」
- 889: 「noobとかもまだ使うしこれにも使えるといいな。」(Qwenをnoobaiなどにも適用したい文脈)
- 890: 「ワイ環なのかプロンプトや設定の問題なのかもしれんけどq4_k_mの方がq6_kより賢くない? 後者はやっつけ仕事したり同じ内容繰り返す率高くて上手く機能せんかったわ」(量子化版q4_k_m vs q6_kの比較、q4_k_mの方が賢く感じる)
- 894: 「簡潔な指示ならq4_k_mでもいいんだけど マークダウンで書けと言っても書いてくれなかったりするし性能がそぎ落とされてる感はある VRAM的に快適に利用できる上限は8GBはq4, 12GBはq6, 16GBはq8みたいな感じになる q6はバランスがいいけどたまにおバカになるというか手を抜くときあるんで きっちり指示通りやって欲しい時はq8の方が安心感ある」(量子化比較: q4_k_m/q6_k/q8の性能・VRAM消費・安定性議論)
- 896/898: 同一モデルの量子化比較確認(qwen3-vl-8b-nsfw-caption-v4.5@q4_k_m vs q6_k)
- 915: 「キャプション用の別のやつ 前スレ見返したらこっち使ってるニキもおったね prithivMLmods/Qwen3-VL-8B-Abliterated-Caption-it-GGUF」
選定理由: キャプション用として前スレで使われていた別バリエーション。
Noobai(noob, Noobai)
- 889: 「noobとかもまだ使うしこれにも使えるといいな。」(Qwenをnoobaiにも適用希望、まだ常用中)
- 922: LoRA紹介「ttps://civitai.com/models/1884540/frog-embrace-position-or-sex-position-or-concept-version-or-illustriousnoobaipony」
(illustrious/Noobai/Pony対応LoRAとして言及)
Pony
- 922: 上記LoRA(illustrious/Noobai/Pony対応)
- 961: 「pony時代まではお宝除いてガッツリ消してしまったわ」(過去のPony時代を振り返り、モデル削除した過去談)
illustrious (イラストリアス, ill, IL, リアス)
- 922: 上記LoRA(illustrious/Noobai/Pony対応、「illustriousnoobaipony」表記)
Wan(主にWan 2.2)
- 878: 「ワイの大きなwan2.2用WFでは0.3.77では正常に生成できている」「0.3.74あたりからメモリ周りが改善されてVRAM消費しなくなったからblockSwapを45ぐらい下げれたんやが 生成速度がそこまで改善したようなしていないような」(ComfyUIアプデでのWan2.2用WF動作確認、メモリ改善でVRAM効率向上)
- 916: 「液体やしぶきなどパーティクル系など破綻せずにwan2.2はよく描画できてるわ」
選定理由: パーティクル系(液体・しぶきなど)の破綻が少なく描画が優れている。
- 945: 「幸いここの人はwan2.2を動かすためにメモリ買った人ばかりだから高騰前に間に合ってるはず」
- 987: 「同じタイミングでWan 2.2が出てこれからは128GBが必須要件と言われてたしな」(メモリ128GB必須の文脈でWan 2.2言及)
まとめ
- 最多言及: Qwen(キャプション/VLモデルとして詳細議論、選定理由明確)。
- LoRA関連: illustrious/Noobai/Ponyが一括LoRAで言及(構図生成用)。
- Wan: 動画/パーティクル生成の強みを理由に挙げ、ComfyUI WFやハード要件で話題。
- その他モデル(NAI, FLUX)はゼロ。抽出はログの文脈(主にComfyUI/ZIT/キャプション/動画生成)を反映。
抽出された生成AI「モデル」関連話題(除外モデル除く)
以下は、ログから除外モデル(NovelAI, Pony, illustrious, Noobai, FLUX, Wan, Qwen)を除外した上で、生成AIの「モデル」(Checkpoint, LoRA, LLMなど)に関する言及を抽出。文脈がモデル選択・使用・評価に焦点を当てたものを優先。選ばれている理由や問題点が明記されたものを特に強調。
1. SDXL (Stable Diffusion XL)
- »867 »849: ControlNetのinpaint_only使用時、強度0.45-0.7でもボヤける。inpaintモデルが微妙で、SDXLに良いinpaintモデルがなさそうと指摘。画質劣化の原因としてモデル自体を疑う。
- »868: SDXL版で生成テスト(棚の描写が比較的まとも)。プロンプト例あり。
2. ランドセルLoRA
- »909: ランドセルLoRAは背負うことしか再現できず、机の上に置けない。日本語長文説明を入れたため、質高再現にクソ長いプロンプトが必要。キャプションは簡潔・要点抑えが肝と教訓。
3. motsuaki (モデル名と推定)
- »914 »917: motsuaki使用で絵柄が「もつあき」になったが、肝心の構図が出ない。プロンプト調整中。
4. wai14 / WAI15 (モデル名と推定、WAIfu系?)
- »939 »940 »948: 特定プロンプト(sex from behind, against wall, bent over, onee-shotaなど)で構図テスト。
- wai14: 全く同じプロンプトで出ない(余計なタグや解像度が原因?)。
- WAI15: 普通に出る。ridingタグ追加で打率向上。wai14より出力安定と比較。
5. 非量子化GGUFモデル (量子化なしのGGUF形式モデル全般)
- »907 »912: 動かせるスペックなら量子化モデルより非量子化GGUFの方が良い。量子化されていないものを推奨(スペック次第で性能優位)。
その他モデル関連言及(軽微・文脈薄め)
- stablediffusion (»845): Stable Diffusion全般でControlNet/inpaint使用時の画質劣化議論(モデル固有問題か?)。
- painterLongVideo (»916): 動画生成でフレーム参照し不自然さ少ないが、nativeより顔溶けやすい(モデル/ツール?)。
- frog-embrace-position LoRA (»922): Civitaiモデル。特定構図(体格差セックス)向けLoRAとして提案(ベース除外モデル混在だがLoRA自体抽出)。
全体傾向: SDXLのinpaint弱点やLoRAの再現限界が主な不満点。量子化回避推奨はスペック依存の性能理由。WAI系はバージョン差で安定性議論。ログ後半はメモリ/ハード話に移行しモデル言及減少。