抽出結果: 指定モデルに関する話題
ログ全体から、指定されたモデル(NovelAI (NAI), illustrious(イラストリアス, リアス, ill, IL), FLUX, Wan, Qwen-Image, anima, Z-Image(Z-Image Turbo,ZIT,ZIE), LTX(LTX-2.3,ltx2.3))に言及されたレスをすべて抽出。NovelAI (NAI) の言及はなし。各モデルの話題をレス番号順にまとめ、特に選ばれている理由(性能、相性、利点など)が明記されている場合は太字で強調。
illustrious (イラストリアス, リアス, ill, IL)
- 694: リアスで解像度やアス比が変だと、端に部屋の柱・木・ノイズのような線が出る記憶あり。
- 706: animaはプロンプト次第で細部OKだがぐちゃぐちゃになりやすい。リアスは使い勝手の良さが別物で、まだまだリアスとやれることの差は大きくない。
- 710: Animaとリアスの差は歴然で性能全然違うが、絵への興味が薄く1girl正面向きで良ければリアスでいい。
- 797: anima頑張ってもリアスの時の絵柄にならず、LoRAの効き方が違う。
- 806: illustriousだとガラス表現が不可能。
- 830: リアスの絵柄の再現にこだわるのは長年いじり続けた弊害。それに価値があると思えない。
FLUX
- 693: »688(画風LoRAかさ増し)に対し、fluxのkontextが個人的オススメ。画風維持力が抜群に高い(代わりに可動域狭い弱点)。3枚あるなら30枚ぐらいにできる。
- 697-703: Geminiで画風維持微妙だったが、flux kontextはgeminiより画風維持断然強い(目元が変わりづらい)。kontext > Qwen image edit > gemini(維持力)、可動域はgemini > Qwen > kontext。
Wan
- 754: Wan2.2とか動画のプロンプトもQwenのほうがいいのかな。
- 755: wan2.2はqwen3.5ダメダメ。冷静にまとめるgemma4のが得意。
- 759: Forge Neoはwanなど最近のモデルに対応。
- 793: LTX2.3で4分超え長尺動画作れた。長尺はwan2.2よりやりやすい。
Qwen-Image
- 703: Qwen image editはkontextより動かせるが画風維持力落ちる(kontext > Qwen > gemini)。
- 759: Forge NeoはQwenなど最近のモデルに対応。
anima
- 643: レトロといえばアルファのクリス。anima1のテストで作ってたが作り直すか。
- 704: AnikawaとWAI生成してたが、Animaとか流行ってるっぽい。
- 706: anima自体はプロンプトかけば細部しっかりするが書かないとぐちゃぐちゃ。リアス系使い勝手の良さとは別で、まだ進化と言われるかはこれから。
- 710: Animaとリアスの差歴然、性能全然違う。
- 719: Animaは512x512の呪縛がなくなればマジで文句なし。
- 753: animaだとqwen3.5の提示するプロンプトが一番しっくり来る。初回打率でchatgpt/gemma4より高い、妙に相性がいい。
- 759: Forge Neoはanimaなど最近のモデルに対応。
- 777: Botan anima v2かなりおすすめ。サンプル微妙だが有名絵師タグ入れると化ける。
- 794-795: animaでnegpip(hako-mikan版動くがAnimaでは動かない?)。
- 797: animaでリアス絵柄再現いまいち、LoRA効き方違う。
- 800: Animaくん線がジャギる(Anima yume v0.3で起こりやすい?)。
- 804: Animaは@artist効きやすいがLoRAで上書きされ消える。LoRA弱くして複数使用試す。
Z-Image (Z-Image Turbo, ZIT, ZIE)
- 759: Forge NeoはZ-Image Turboなど最近のモデルに対応。
LTX (LTX-2.3, ltx2.3)
- 707: ltx2.3でCMっぽいの。
- 727: »707 LTXいいね、カットの切り替えがCMっぽい。
- 793: LTX2.3で繋ぎ合わせ4分超え動画作れた。長尺はwan2.2よりやりやすい。
- 796: Ltx2.3実験中の副産物(FL指定5-10秒動画連結、クチパク実験)。
まとめ
- 最多言及: anima(10+件、テスト・流行・性能比較・相性・おすすめ・問題点多岐)。
- 選好理由の傾向:
- illustrious: 使い勝手・安定性が高いが、解像度ノイズや特定表現の限界。
- FLUX (kontext): 画風維持力最強、LoRAかさ増しに最適。
- Wan/LTX: 動画生成、特に長尺でLTX優位。
- anima: プロンプト相性抜群(Qwen3.5)、絵師タグで化けるがジャギ・512制限・LoRA相性に課題。
- Qwen-Image/Z-Image: Forge Neo対応で最近のトレンドモデルとして言及(詳細性能少)。
- NAIは一切なし。他のAI(Gemini, Gemma4, Seedanceなど)は対象外のため除外。
抽出された生成AIモデルに関する話題(除外モデル以外)
以下は、ログから除外リストに該当しない生成AIモデル(主にLLMや画像/動画生成モデル)に関する話題を抽出・整理したものです。ログ番号、該当レス内容の抜粋、話題の要点(選ばれている理由があれば強調)を記載。生成AIモデルに限定し、ツール(ComfyUI, Forgeなど)やLoRA/一般議論は除外。重複は統合。
Claude (Anthropicのモデル群)
- 640: 「ollama使って複数のclaudeモデル併用もいいんでない?」
- ollama経由で複数のClaudeモデルを併用する提案。
- 778: 「各応答ごとにgemmaとqwenとdeepseekとgpt-ossを入れ替えて使えばええんやないの どれ使ってもヒロインの名前は美咲になるオチ付きや」
- Claude未言及だが文脈でLLM選択肢として挙がる多モデル併用議論の一部(Claude含む)。
- 820: 「ガチエロじゃないお話作りならclaude opus4.6がこっちが唸るほどの展開作ってくるからみんな試してみてほしいわ」
- Claude Opus 4.6が選ばれている理由: お話作りの展開が優秀で「唸るほど」高品質。
Codex (OpenAIのコード生成モデル)
- 646: 「データセットの加工でバグり散らしてるからcodexとかに頑張ってもらう」
Gemma4 / gemma4 / gemma-4-31B (GoogleのGemmaモデル変種、uncensored-heretic版含む)
- 742: 「gemma4さわってみ、ちょっとした衝撃やで。お陰でLLMスレがすこしにぎわっとる。」
- Gemma4が選ばれている理由: 触ってみて「衝撃的」、LLMスレをにぎわわせる性能。
- 753: 「やっぱanimaやとqwen3.5の提示するプロンプトが一番しっくり来るな…初回で聞いた時の打率やとchatgptやgemma4より高い」
- Gemma4をChatGPTと比較、プロンプト生成の打率で劣る文脈。
- 755: 「wan2.2はqwen3.5はダメダメやったで。多分冷静にまとめるgemma4のが得意な気がするわ」
- Gemma4が選ばれている理由: 動画プロンプト(Wan2.2)で「冷静にまとめる」のが得意。
- 757: 「grokに作らせたプロンプトガイドラインを元にgemma4に書かせたプロンプトを更にqwen3.5に校正してもらって」
- 778: 同上、多モデル併用でGemma選択肢。
- 807: 「ComfyUI-lmstudio-image-to-text-nodeでgemma 4 31b (-it-uncensored-heretic Q4_K_M)試してみよう…0.4.9のrelease noteにgemma 4の効率化?入ったと書いてあったので入れ替えてみたら86Gくらいでなんとか載る」
- Gemma 4 31B (it-uncensored-heretic Q4_K_M)のメモリ効率化でローカル動作可能に。
- 823: 「text-generation-webuiでgemma-4-31B-it-Q6_K vram15gb ram32gbくらいやった」
- Gemma-4-31B-it-Q6_KのVRAM/RAM消費量報告(低リソースで動作)。
Seedance (Seedance 1.5 proなど、動画生成モデル?)
- 739: 「NSFW可能なseedance来たらゲームエンド級やと思うんやけど無理やろなぁ…派生?っぽいののFast版はパンツくらいやったら出せたんやが」
- NSFW対応のSeedanceを期待、Fast版で軽度NSFW可能。
- 780: 「Seedance 1.5 proはNSFWも(弾かれないという意味で)いけるんやけどな 2もそのうちそうなるんじゃ?」
- Seedance 1.5 proが選ばれている理由: NSFW生成で「弾かれない」(フィルタ回避可能)。
Grok (xAIのモデル)
- 741: 「grokで童貞卒業してると他のサービスにも同等の期待を寄せちゃう気持ちは分かる」
- 751: 「grokに作らせたプロンプトガイドラインを元に…」
- 757: 同上。
その他のモデル
- 778: 「deepseekとgpt-oss」
- 多モデル併用(DeepSeek, GPT-OSS)の提案。
- 753: 「chatgpt」
- プロンプト打率比較でQwen3.5に劣る文脈(ChatGPTは一般モデルとして)。
抽出ノート:
- 合計20+件の言及中、除外モデル(anima, illustrious/リアス, FLUX, Wan, LTX, Z-Image, Qwen-Image)を完全に除外。Qwen3.5はQwen-Image以外なので一部含むが、画像生成特化でないLLM文脈。
- 理由抽出: Gemma4/Claudeは性能・効率・相性で複数評価高く、SeedanceはNSFW耐性で注目。
- 画像生成中心ログだが、LLMモデル(プロンプト補助/ストーリー生成)が主抽出対象。動画モデル(Seedance)も少数。