抽出結果: 指定モデルに関する話題
ログ全体をスキャンし、指定されたモデル(NovelAI (NAI), illustrious(イラストリアス, リアス,ill,IL), FLUX, Wan, Qwen-Image, anima, Z-Image(Z-Image Turbo,ZIT,ZIE), LTX(LTX-2.3,ltx2.3))の言及をすべて抽出。FLUXおよびZ-Image系は一切言及なし。NAI/NVAは検索避けの文脈で登場(NVAはNAIの変形表記)。各言及の文脈と、選ばれている理由(明示的な利点・選好)があれば併記。
NovelAI (NAI) / NVA
- 438: 「どうでもいいけどNAIじゃなくてNVAなんだな」
→ NAIの表記がNVAに変わった指摘。
- 448: 「エロ文章ならNAIのGLM4.6でいいし」
→ 理由: エロ文章生成に適しており、自分には使い道あり(一般用途はChatGPT/Claudeで十分だが)。
- 465: 「»438 最初はNAIやったがV1当時のお客さん大量流入防止の検索避けでNVAに変わったんやで」
→ NAIの歴史的表記変更(検索避け)の説明。
illustrious (イラストリアス, リアス, ill, IL) → 主に「リアス」で言及
- 468: 「一周回ってリアスでシコってるわ animaもいいんだけど手軽さだとリアス一択 色身もなんだかんだでリアスが好きやねん animaのメジャーにも期待やけど」
→ 理由: 手軽さ一択。色身(肌色表現)が好き。animaも良いがリアス優先。
- 469: 「リアスじゃないと出ない構図というか、POV騎乗位でのdeep penetrationでass rippleさせれないんだよな。…リアスだとLORA入れるとひしゃげるようになるけど、WanでFLF2Vする場合これがあると無いとで迫力が全然違う。」
→ 理由: 特定構図(POV騎乗位のdeep penetration + ass ripple)がリアスでしか出にくい。LORA併用で尻のひしゃげ表現が向上し、Wanとの相性で迫力が増す。
- 470: 「ワイは絵柄も構図も全然拘り無い方やけど リアスは短小包茎おちんちんがちゃんと出せないモデル多かったからその点に関しては明確にanimaがええな」
→ 理由(否定的): 短小包茎ちんちんが出しにくい(animaの方が優位)。
- 472: 「»470 これはそう リアスは短小包茎ちんちん、真性包茎みたいなのがマジで出にくい それに関連して包茎の皮をお掃除するようなフェラもまあ上手く出ない」
→ 理由(否定的): 短小/真性包茎表現が出にくい。関連フェラシーンも不向き。
Wan
- 469: (上記リアス文脈で)「WanでFLF2Vする場合これがあると無いとで迫力が全然違う。」
→ 理由: リアスLORA併用で迫力が増す(FLF2V=FLUX?関連の変形処理?)。
- 598: 「wan2.2のAIOでFLFしようとしてもアップロードした画像無視してプロンプトから生成されるんやが」
→ wan2.2 AIOの不具合報告(解決自解)。
- 626: 「»598 Wan2.2のAIOはあまり出来が良くないのでSmoothMix v1(High)+Dasiwa v9(low)の組み合わせから試してみ」
→ 理由(否定的): AIOの出来が悪いため、他の組み合わせ(SmoothMix + Dasiwa)を推奨。
Qwen-Image(およびQwen関連)
- 442: 「なおスレ民がとうに投げ捨てたQwen3.5を使っとる模様」
→ Qwen3.5をローカルLLMで使用(遊び方議論)。
- 446: 「エロ部分の詳細化だけQwen脱獄モデルにやらせるって奴やってるな」
→ 理由: エロ小説/脚本の詳細化に脱獄モデル使用(通常シーンはcodex)。
- 626: 「Qwen-Image-EditのAIOはまあまあ良い出来なんやけどな」
→ 理由: AIOの出来がまあまあ良い(Wan2.2 AIOより優位)。
anima
- 452: 「今更anima触ったんやが、自然言語でかなり柔軟に構図作ってくれてすごいな ただ背景頑張ってキャラが小さくなって微妙になるとかがあって難しいな」
→ 理由: 自然言語で構図が柔軟(すごい)。欠点: 背景重視でキャラが小さくなる。
- 455: 「移行はanimaが覇権になってからでええか」
→ animaを覇権モデルと位置づけ。
- 468: (上記リアス文脈で)「animaもいいんだけど手軽さだとリアス一択」
→ 良いが、手軽さでリアスに劣る。
- 470: (上記リアス文脈で)「リアスは短小包茎おちんちんがちゃんと出せないモデル多かったからその点に関しては明確にanimaがええな」
→ 理由: 短小包茎表現が明確に出しやすい。
- 502: 「今の主流はanimaってやつな animagineとは違うので詳しくはwiki参照な」
→ 理由: 今の主流モデル。
- 608: 「»520 sybian animaで出ないんだよねえ 残念」
→ sybian表現が出ない(否定的)。
LTX (LTX-2.3, ltx2.3)
- 477: 「IrodoriでLTX/MMAudioみたいなこと出来たら最高なんだけどな」
→ LTXを理想的な機能(映像同期声?)の例として言及(実現希望)。
まとめ洞察
- 最多言及: anima(主流/覇権、手軽さ・構図柔軟・特定表現優位)とリアス(手軽さ・特定エロ構図特化だが包茎不向き)。
- 選好傾向: エロ特化(騎乗位ass ripple、短小包茎、色身)でリアス/anima/Wanが競う。Qwenは脱獄エロ文章に。NAIはエロ文章の定番。LTXは音声同期の理想例。
- 全体文脈: 5chスレのAI画像生成(主にエロ)議論。モデル比較が多く、ローカル/クラウドの使い分けも。理由は主に「手軽さ」「特定構図/表現の出しやすさ」「エロ適性」。
抽出された生成AIモデル関連話題(除外モデルを除く)
ログ全体から、生成AIの「モデル」に関する言及を抽出。除外リスト(NovelAI(NAI), illustrious(リアス等), FLUX, Wan, Qwen-Image, anima, Z-Image, LTX等)を厳密に除外。LoRAやタガー、ツール類はモデル名として明示的なもののみ対象とし、理由が述べられている場合を強調。主に画像生成・LLMモデルを中心に抽出。
1. Qwen3.5 (ローカルLLMモデル)
- 442: LM StudioでQwen3.5を使用。画像生成の遊び方(アブストラクト/タグ雑入力、キャプショニング)で驚きを表現。理由: スレ民が投げ捨てたものを今更デビューで使い、キャプショニングがきれいなので驚き。
- 446: Qwen脱獄モデルをエロ部分詳細化に使用。理由: エロ小説/脚本用途でcodex(通常シーン)と使い分け、脱獄でエロ詳細化が可能。
2. Claude (主にClaude Code, LLM)
- 446: Claude Codeをエロ抜き用途に言及。
- 448: 一般用途でClaude推奨。理由: ローカルLLMの新モデル話題が出ても、一般用途ならChatGPT/Claudeで十分、エロ文章は別モデル。
- 512: Claudeのcoding性能を絶賛。理由: ギュラってるレベルで高く、自身の存在意義がAI代行に取って代わられるほど。
- 569: Claude CodeでFirefoxバグ取り。理由: ブラウザ互換性の問題解決に使用。
3. codex (LLM, OpenAI系)
- 446: 安いプランでエロ抜き用途。理由: エロ小説/脚本の通常シーン担当、Qwen脱獄モデルと使い分けで勝ち目なし。
4. ChatGPT (LLM)
- 448: 一般用途で推奨。理由: ローカルLLMより実用的。
- 514: Claudeよりメイン。理由: コスト/リミットがClaudeより優位。
5. Anything (4.1, v4.5等、古いモデル)
- 500: Anything 4.1が主流か質問。回答: 古い(1.5時代)。
- 502-503,511,515: Anything 4.1/v4.5を太古/懐かしいと評価。理由: 知らない人が多いほど古く、v4.5が好きだった思い出。
6. aom3
- 504: 今でも現役。理由: 主流として挙げられる。
7. animagine
- 502: 今の主流はanima(除外)だが、animagineとは違うと注記。
8. WD14 Tagger / ML-Danbooru (タグ付けモデル)
- 506: Forge Neo/Classic対応のWD14 Tagger fork作成。
- 507-509: ML-Danbooruを移植依頼、WD14でMLDanbooruInterrogatorモデル追加可能。理由: ML-Danbooruの方がタグ付けがしっくりくる好み。
9. Gemma4 / gemma-4-31b-it-heretic-ara-Q8_0 等 (LLM, 無検閲派生モデル)
- 522: gemma-4-31b-it-heretic-ara-Q8_0で文章ポン出し(CG集)。
- 606,619,622,624,627-628: Gemma4をエロプロンプト/しこしこ/文章生成/プロンプトエンジニアに多用。理由: 無検閲でエロい手つき表現/プロンプト作成ループが可能、qwen3.5と違った絵/文章、VRAM32GBで31B Q4がエッチプロンプト対応、頭の慣れ早い。
- 610: gemma-4-31B-it-Mystery-Fine-Tune-HERETIC-UNCENSORED等、無検閲版探し。
10. Grok (LLM)
- 621: エロゲっぽい文章で使用も直し箇所多。理由: 数ヶ月前ローカルも含め抜けず、エロ表現不足。
11. SmoothMix v1 / Dasiwa v9
- 626: Wan2.2 AIO代替推奨。理由: AIO出来が悪いため、High+low組み合わせで試す価値。
12. その他マイナー/関連モデル
- 478: RVC(古い技術、劣化目立つ)、Seiren Voice(高性能、日本語学習済み、数万円)。理由: ボイチェンでRVCライブラリ豊富だが劣化、Seirenが高性能、オープン版待ち。
- 482: ID-Lora(声質変換)。
全体傾向・追加洞察
- ローカルLLM vs クラウド: 複数箇所(443,448,467)でローカルはロマン/API(Claude/ChatGPT)は実用/性能優位と議論。エロ/規制回避でローカル需要(467)。
- 古いモデル回顧: Anything系は「太古」「懐かしい」が主流意見、3年で陳腐化(560)。
- Gemma4の人気: エロ/無検閲用途で頻出、プロンプト最適化に強い。
- 理由抽出は明示的なものを優先。ハード/ツール(A1111, ComfyUI, Irodori等)はモデル非該当で除外。
これでログのモデル関連を網羅。追加質問あれば уточните。