抽出結果: 指定モデルに関する全言及
以下は、ログから指定モデル(NovelAI (NAI), illustrious(イラストリアス, リアス,ill,IL), FLUX, Wan, Qwen-Image, anima, Z-Image(Z-Image Turbo,ZIT,ZIE), LTX(LTX-2.3,ltx2.3))に関するすべての話題を抽出・整理したものです。太字でモデル名を明示し、文脈を引用。選ばれている理由や利点・欠点が明記されている箇所は【理由/評価】として強調抽出。FLUXとQwen-Imageはログ内に直接言及なし。
NovelAI (NAI)
- 38: NAIちゃんのアナルが18000も余ってるんだがこれどう消化すればええんや → NAIの生成容量(アナル?おそらくAnlasポイント)の余剰をどう使うか議論。
- 105: nai初期にgirl,girl,girl,girl,etc と girlタグを何十個も書くとすし詰め状態のキャラが生成されるみたいな技があったんよな → NAI初期の多人数生成技(girlタグ連打)を懐かしむ。【理由: 初期時代に多人数すし詰め生成が可能だった】。
illustrious (イラストリアス, リアス, ill, IL)
- 102: リアスなら大崩壊起こすような内容でanimaで極端なアス比で描かせたら → リアスでは極端アス比・多人数で大崩壊する内容をanimaで成功させた比較。
- 111: リアス時代はカムカム法使わないと人だらけには出来なかったんだけど → リアス時代: CN・LoRAなしでは多人数生成しにくかった。【理由: 多人数生成にカムカム法(おそらくKSampler Advancedなど)が必要で制限多かった】。
- 112: CN・LoRAを使わないリアスではできなかったこと → 上記続き、リアスの制限を指摘。
- 146: リアスの頃にやろうとした焼き直しの焼き直しだったり… → リアス時代に試みた構図(ミルクボトル搾乳)がanimaで容易に。
FLUX
Wan
- 115: wanやLTXで動かしたらどうなるんやろか → 特定の怖い画像生成をWan/LTXで試す好奇心。
- 133: LoRAだとWan2.2のときに強度調整ゲーが苦行すぎた → Wan2.2: LoRA強度調整が苦行。【欠点: LoRA調整が面倒】。
- 188: Switch ComfyUIでv0.18.3を選ぶと問題ないのにnightlyを選ぶとまともにWANが生成出来なくなってる → ComfyUIバージョンでWan生成不具合。
- 191: ギップルで最新にしたらブチギレHighで謎の明滅を繰り返すようになったで … WAN → Wan動画生成でHigh VRAMモード不具合。
- 199: 今の最新版のComfyUIのWanの動画生成はノイズや色合いの一貫性がより崩れてる → Wan動画生成: 最新ComfyUIでノイズ/色一貫性崩壊、直るまで避ける推奨。【欠点: 動画生成の安定性悪い、dynamic VRAM前バージョン推奨】。
- 204: 実写エロ動画はwan2.2でええんやろか?ltx2.3はまだ早い扱い? → Wan2.2を実写エロ動画に適した選択肢として挙げる。
- 211: zitとかwanはmarkdownだのtoml形式だのを理解するが → Wan: Markdown/TOML形式プロンプト理解。
- 218: LTX-2.3でもいいけど、Wan以上に手足の破綻がえぐいしアプスケしても直らない → Wan vs LTX: Wanの手足破綻がLTXよりマシ。
- 223: ltxはエロはでるんか?それもwanの方が良いの? → Wanをエロ生成で優位視。
- 226: LTXの利点は長尺がwanより作りやすいのと音入れが楽 → Wan vs LTX: Wanは長尺/音入れでLTXに劣る。【欠点: LTXより長尺動画作りづらい】。
Qwen-Image
- 言及なし(Qwen3.5はLLMとして複数言及あるが、Qwen-Imageとは別)。
anima
- 16: AnimaはVRAM使用量が非常に少なくて済むな Detailerが不要だからSAM3をロードする必要がないしCN tileもロードする必要がないけどそれ以外にも理由がありそう おかげでLLMに結構VRAMを割くことが出来る … Animaの生成も普通に出来る → 【理由: VRAM使用量極小(Detailer/SAM3/CN不要)、LLM(Qwen3.5)と併用可能】。
- 22: 27B(Q5_K_M)を全てGPUでもAnimaだけなら問題なさそうだわ → VRAM制約下でAnima単独なら安定。
- 68: AnimaYume v0.3だから、公式にくらべてもともと安定してる(≒多様性が少ない) → AnimaYume v0.3: 公式より安定(多様性少ない)。【理由: 安定性高く一貫性取れる】。
- 80: anima動かしながら使いたンゴねぇ … anima動かしながら → Anima併用時のLLM速度。
- 86: AnimaYumeってv0.3になってから髪の毛がシャギる様な気がせえへん? → AnimaYume v0.3: 髪の毛シャギー(ジャギー?)傾向。【欠点: 髪描写の線途切れ】。
- 87: 前スレのanimaをSEGSでタイル化してアップスケール → Anima画像のアップスケール共有。
- 102: リアスなら大崩壊起こすような内容でanimaで極端なアス比で描かせたら … ここまで多様性ありで出るとは思わんかった → 【理由: リアスより極端アス比/多人数(30人規模)で安定、多様性高い】。
- 106: AnimaYume v0.3の不具合かな AnimaYume v0.25 Anima-preview2 → バージョン比較でv0.3の線途切れ指摘。
- 111: animaで1536x1536で生成したら本当に無数の人間で溢れた これSD1.5の挙動に似てるね。リアス時代はカムカム法使わないと人だらけには出来なかった → 【理由: 自然言語でキモいほど群衆生成可能、SD1.5似でリアスより優位】。
- 116: animaってパキパキに描き込まんよな … 512で切り出すように … 描き込み増えるのかも → Animaの描き込み不足をタイル/ステップで補う試行。【欠点: デフォルト描き込み弱い】。
- 146: animaになってやたらセルフ搾乳やらセルフ乳吸とか捗る → 【理由: bizarre/セルフプレイ構図が捗る】。
- 152: Animaの自然言語なんて gigantic breastsかつ(wide hips:1.2)で… → Anima自然言語の簡易例。
- 155: animaは理解せんで TEにqwen3使っとるとはいえ0.6bだししゃあないね → AnimaはMarkdown理解せず、自然文/タグ併用推奨。【欠点: Markdown/TOML非対応、TE小規模】。
- 198: animaで green broochって書くと … a green broochって書いたらだいぶ軽減されたわ 自然言語が効くようになったおかげかね → 【理由: 自然言語(冠詞)で複数物体出現抑制】。
- 210: ZIには構造化プロンプトが効くけどAnimaには効いてる気がしない → Animaは構造化プロンプト弱い。
- 211: animaは絵に描くもののdanbooruタグ書いた上で分けたい場面だのキャラだのをそれぞれ説明するなるべく短い自然文を追記して書くと混ざりにくくはなる → 【理由: タグ+短自然文でキャラ混ざり抑制】。
Z-Image (Z-Image Turbo, ZIT, ZIE)
- 210: ZIには構造化プロンプトが効くけど → ZI: 構造化プロンプト有効。
- 211: zitとかwanはmarkdownだのtoml形式だのを理解する → ZIT: Markdown/TOML理解。
LTX (LTX-2.3, ltx2.3)
- 109: 色変化ないのはltx2ってやつか? → LTX2で色変化なし?
- 115: wanやLTXで動かしたら → 特定画像生成好奇心。
- 131: ltx2.3のエloraもそこそこ出揃い出したけどひとつひとつのサイズがクソデカ過ぎる → LTX2.3 eLoRA: ファイルサイズ巨大。【欠点: サイズデカい】。
- 133: ファインチューンじゃなくてマージでもいいからエロ対応LTX2.3モデル来てくれ → LTX2.3エロモデル要望。
- 148: 初めて、LTX 2.3使ったけど、実写は結構すごいけど、二次元やアニメはゴミすぎるw → 【理由/欠点: 実写優秀だが二次元/アニメゴミ】。
- 204: wan2.2でええんやろか?ltx2.3はまだ早い扱い? → LTX2.3を実写動画で「まだ早い」と見なす。
- 218: LTX-2.3でもいいけど、Wan以上に手足の破綻がえぐいしアプスケしても直らない。特に速い動作は苦手 → 【欠点: 手足破綻激しい(Wanより)、速動作苦手。アプスケ無効】。
- 223: ltxはエロはでるんか?それもwanの方が良いの? → LTX: NSFW/LoRA少なくエロ弱い。
- 226: LTXはまだloraとかも少なくnsfwには弱い。色んなシュチュ作るならwan 個人的なLTXの利点は長尺がwanより作りやすいのと音入れが楽。今後に期待 → 【理由: NSFW/LoRA弱いが、長尺動画容易・音入れ楽(Wan優位)】。
まとめ洞察
- Animaが最多言及(VRAM効率、多人数/自然言語強み、安定性)。LLM併用やアップスケール活用多し。
- Wan/LTXは動画/実写中心。Wanはエロ安定だが長尺弱く、LTXは実写強・二次弱・長尺強。
- NAI/リアスは過去回顧多め(初期技や制限)。
- ZI/ZITはプロンプト形式の言及のみ。FLUX/Qwen-Imageなし。
抽出された生成AIモデル関連話題(除外モデル以外)
ログ全体から、除外リストに該当しない生成AIモデル(主に画像生成モデルや関連LLM)の言及を抽出。主なものはQwen3.5(LLM、主に画像生成補助としてVRAM共有や自然言語プロンプト作成で話題)、SDXL/SD1.5、seedance2、Gemini、Claude、tsubaki2、breakdomain_M1808、wakameなど。除外モデル(Animaなど)の文脈で言及されたものはスキップし、独立した話題のみ抽出。選ばれている理由(VRAM効率、速度、性能など)が明記されたものを優先的に注記。
1. Qwen3.5 (LLMモデル、複数量化版: 9B/35B/27B/122B Q4/Q5/Q8など)
- 16: Anima生成時にVRAM使用量が少なく済むため、Qwen3.5 35B a3b(Q5_K_M)の10/40レイヤーをCPUオフロードしても62.92tok/secの高速度で動作し、同時生成可能。理由: VRAM効率が高く、LLMに多く割り当てられるため高速動作可能。
- 20: 9GB VRAM程度の低スペックGPUでは動作不可。
- 22: 27B(Q5_K_M)を全GPUオフロードでもAnima生成時なら問題なし。
- 26: 5090 GPUでQ8量化版がサクサク動作。「正直画像や動画より抜ける」(LLM単独使用の満足度高)。
- 30: Qwen3 Coder 480Bは984GB VRAM必要(非現実的)。
- 70: LM Studioで9B Q4使用中。スレ見て35B Q5も動かせそうとDL開始(5080+128GB環境)。
- 73: 122Bは81GB VRAMで溢れても可(大規模版推奨)。
- 80: Anima同時使用で5000トークン長10GPUオフロード時20tok/secだが低速。9Bに戻る。
- 195: 9B Q4(高速自然言語生成)か35B Q4(高品質だが待機時間あり)で迷う。Anima用自然言語プロンプト作成時の派閥を質問。
2. seedance2
- 31: Qwen3 Coder 480B並みのVRAM(984GB)必要と推測。
3. Gemini (Google LLM)
- 32/34/57: 一時チャットで検索履歴がアカウントベースで把握され、関連検索を推奨(親切機能?)。Geminiは一時チャットがオプトアウトらしいがChatGPT(Gemini?)は違う。
4. Claude / ClaudeCode
- 87: 前スレのAnima関連ワークフローをClaudeCodeで改良版共有(VRAMピーク11.5GB)。
- 91: 関連wd14tagger.py改造も共有(タグ付け高速化)。
- 189: PNGをD&DでCatboxアップするアプリをClaudeで作成。
5. tsubaki2 (Pixaiモデル)
- 136: 10人描き分けがすごいと話題。本当に描き分け可能か疑問視。
6. SDXL / SD1.5 (Stable Diffusion系)
- 102/146: SDXLはハンコ顔になりやすいが、多人数プロンプト(「後列20人、前列10人制服女の子」)で多様性高く生成。理由: text encoderのコンテキスト長/性能向上で細かい指示が効く可能性。
- 111: SD1.5は「無数の人間で溢れた」挙動に似る(群衆生成容易)。
7. breakdomain_M1808
- 183: 2023年9月生成画像(タイムスタンプ確認)。プロンプト「(60+girls:1.5)」で群衆生成。理由: 複数girlsタグで多人数生成可能(ただし手描写悪化、ADetailerで悪化)。
8. wakame
- 114: 思い出してほしい(過去モデル? 詳細なし)。
補足
- これらは主に画像生成(Animaなど除外モデル補助)やLLM単独の文脈。Qwen3.5が最も頻出で、VRAM効率・速度・Anima同時使用の理由で選好が高い。
- SD系は過去比較(多人数/群衆生成の挙動)で言及。
- その他(LM Studio:70ツール、PornMaster:121不明)はモデル非該当でスキップ。
- 抽出外: 除外リスト全般(Anima最多)、GPU/ツール中心話題。