抽出結果: 指定モデルに関する話題
ログ全体をスキャンし、指定モデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する言及をすべて抽出。NovelAI (NAI)は一切言及なし。抽出項目は以下の通り(レス番号順に記述、理由が明示されている場合は強調)。
illustrious (イラストリアス, リアス, ill, IL) / illustlias / liiustrous
- 24: “illustliasでこんな感じの「へ」みたいになってる口はなんて入力すれば出来るのか教えてクレメンス”
→ illustriousのタイポ表記。口の形状生成に関するプロンプト相談。
- 129: “liiustrousやnoobの版権キャラプロンプト一覧乗ってる検索もできるサイト名誰か知ってたらリンク張ってほしい”
→ illustrious (liiustrousタイポ)とNoobaiの版権キャラプロンプト一覧サイトを検索(PC乗り換えでブックマーク消失)。
理由: 版権キャラ生成のためのプロンプト活用。
Noobai (noob)
- 129: 上記illustriousと併記。”liiustrousやnoobの版権キャラプロンプト一覧乗ってる検索もできるサイト名”
理由: 版権キャラ生成のためのプロンプト活用(illustriousと同等)。
Pony (ポニー)
- 155: “civiにzitのポニーっぽいモデル来てるな どうなんだろ、試してみるか”
→ CivitaiのZIT (おそらくZ Image Turbo関連)でPonyっぽいモデルが登場。試用検討。
理由: 明示なし(新モデルとして興味)。
FLUX
- 79: “VRAM16GBは学習の設定落とさなあかんしフルでは楽しめない 救いなのはモデルとTE両方Q8にすればVRAMに収まって高速化できるところ 元のTurbo 自体が画質ナーフ版なこともあってか品質の体感差は少ない BaseやEdit では分からんがTurboに関してはQ8信者になれる” の文脈で、”Qwen image Editや FLUX Kontextに比べるとモデルサイズが圧倒的に小さい”
→ FLUX Kontext (FLUXの文脈編集モデル?) と比較し、ZITの優位性を説明。
理由: FLUX KontextはVRAM16GBでフル展開無理(高リソース要求)に対し、ZITは小さいモデルサイズで16GB VRAMで余裕(精度は未知)。
Wan (wan2.2 / easywan22)
- 143: “wan2.2を新PCで試してみたけど全然別物になってしまうな…同じ環境と同じWFでやってるのに乳首が取れたり顔が変わったりしてしまう 試運転やらが必要なんかな”
→ Wan2.2の生成不安定(新PCで同一環境/WFでも出力が変わる)。原因調査中。
»145: 原因は環境違いの可能性大。
- 187: “easywan22入れたばかりなんやけどメモリ96GBで5070TiならQ8行けるんか?”
→ EasyWan22 (Wan2.2のクイック版?) のQ8動作確認(96GBメモリ+5070Ti)。
Qwen (主にQwen-Image-Edit-2509 / Qwen image Edit / qwenチューンドモデル)
Qwen関連の言及が最多。主にImage Edit版の環境構築・トラブルシュート中心。
- 78: “年末にとんでもない爆弾あるはずや waiちゃんqwenチューンドモデルを予想してたが外れそう”
→ 年末の新モデル予想で「waiちゃんqwenチューンドモデル」(Qwenベースのチューニングモデル)を期待したが外れそう。
- 79: 上記FLUXと比較。”Qwen image Editや FLUX Kontextに比べるとモデルサイズが圧倒的に小さいことになるから精度的にどうなるかというところやね”
理由: Qwen Image EditはVRAM16GBでフル展開無理(高リソース)。
- 149: “ねんがんのQwen-Image-Edit-2509環境が揃ったので生成したところ、おなじみSage Attention有効環境下で真っ黒症状。そこで「Patch Sage Attention KJ」ノードで…RTX30XX系環境だと…真っ黒になってしまう…Qwen-Image-Edit-2509使う時だけSage Attention無効でやるか”
→ Qwen-Image-Edit-2509のSage Attention互換トラブル(RTX30XXで黒画像)。Patchノード試すが失敗、無効化で対応。
- 153: “ワイもQwen-Image-Edit-2509お触りしたんで聞いてええか?公式WFのstep3 image sizeに元の画像の解像度1152x1728設定したんやが出てきた画像が832x1248なのはどこ直せばええんや?”
→ 出力解像度異常(1152x1728指定で832x1248出力)の相談。
- »156: Pixel数/解像度指定の違い説明、解像度ノード付け替え推奨。
- »159: 自動リサイズノードが原因、バイパス/削除推奨。
- 175: “指定した解像度で出力されるようになったが画像下が黒塗りで出力されるわ”(»172のアドバイス後)。
- 178: “入力画像と同じ解像度にしたいなら Scale to Total Pixelsをバイパスするだけやで” → それでも黒塗り。
- 181: “やっぱり画像下が見切れたように真っ黒になるわ ggufモデルから通常モデルに切り替えてやったらノイズまみれの画像しか出ないわ”
→ gguf vs 通常モデルの出力異常。
- »185: モデルローダー違い。
- »195: fp8モデルは–fastオプション外す。
- 186: “色々試したが解像度の指定は効いとる でも幅1152x高さ1728に設定すると画像下が黒塗りで見切れる ワイはもう分からんそっとじや”
- 196: WF共有依頼(1枚目ggufで下見切れ、2枚目通常モデルでノイズ)。
- »199: 下半分Raw latent使用推奨、TextEncodeの仕様でリサイズずれ?
- »202: 下半分使用でggufは正常出力(通常モデルはノイズ)。ツートーンビキニ生成限界確認。
- »212: 1枚目黒塗り不明、2枚目は–fast原因。
- 177: “Patch Sage Attention KJでsage attentionを使ってるなら –use-sage-attentionの記述なしでも動作するから記述はいらんで”(»149対応)。
- 200: Patch無しで–use-pytorch-cross-attentionでもWaveSpeed動作確認(Sage Attention不要発見)。
Qwen全体の選定理由傾向:
- 高機能Image Editツールとして人気(年末爆弾予想、複数ニキが環境構築中)。
- 欠点: 高VRAM要求、Sage Attention互換性悪、解像度/WFトラブル多発、gguf/fp8などの最適化必要。
- 利点: fp8+–fastで高速、WaveSpeed対応で高速化可能。
これで全言及を網羅。モデル選定理由はFLUX/Qwenでリソース比較が主、他はトラブル共有や新モデル興味が中心。
生成AIモデルに関する話題抽出(除外モデル除く)
ログ全体から、生成AIの「モデル」に関する言及を抽出。除外リスト(NovelAI, Pony, illustrious系, Noobai, FLUX, Wan, Qwen)のモデル・ツールは完全に除外。主な抽出モデルと話題を以下にまとめ、特に選ばれている理由や特徴言及があれば併記。LoRAやツール単独はモデル指定がない限り除外。
1. banana / nano banana
- 45: ナノバナナのNSFW版があるとしたらギガピーチになるらしい(仮定の話題)。
- 53: bananaはこういうの得意かと思ったけど意外と難しい。プロンプトが下手なだけかも(生成難易度指摘)。
- 144: nano bananaにcontent blockedされまくってる。ちょっと薄着なだけなのに(NSFW制限指摘)。
- 152: banana温泉の浴衣をちゃんと理解してる(浴衣生成の理解度高評価)。
- 理由言及なし。全体的にNSFW生成や特定シチュの適性で話題。
2. Grok
- 54: エロがいけるモデルならなんでもええやろ。Grokでも良い(エロ生成適性で代替推奨)。
3. Base / Turbo / ZIT / Z Image Edit / zimage / z-image-omni-base
- 67: おはBaseマダー?(Baseモデルの日常的使用示唆)。
- 77-79: ZIT軽くて万々歳。Z Image Editの要求リソースはBase並み? TurboはBaseと同じ6Bでステップ蒸留、低ステップ対応。Zimageは16GBVRAMで余裕、Qwen/FLUX比でモデルサイズ小さい(軽量・低VRAMで高速、16GB VRAM対応を理由に高評価)。
- 80: ZITでも楽しいけどLora効かせると細部乱れがち(LoRA併用時の弱点指摘)。
- 83: zimageはTEなしで16GBに収まる。TE含め24GB必要だがQ8で高速化、TurboはQ8信者になれる(VRAM効率・Q8高速化を理由に推奨)。
- 102: z-image-omni-baseはturboほどリアルではないけどアニメ調への調整簡単。このスレ的には朗報(アニメ調調整容易を理由に好評価)。
- 155: civiにzitのポニーっぽいモデル来てる(新モデル到着報告)。
- 221: CivitaiのZITのLora画像がぼったちばかり。言うこと聞きやすいんちゃう?自分で試したら理由わかった。Baseはよ(制御しやすさ示唆、Base版希望)。
- 理由まとめ: VRAM効率(16GB対応)、軽量・高速(Q8/Turbo)、アニメ調調整容易が主な選定理由。
4. SimpleComfyUi (ComfyUI関連)
- 72,75: SimpleComfyUiのcomfyuiが0.3.76固定。update.batで最新にする方法? ZuntanのSimpleComfyUi公式(バージョン固定問題と解決法話題)。
5. dasiwa / DaSiWa / smooth mix / SmoothMix
- 109: ギャラリー見てdasiwaよりsmooth mixのが動き自然? dasiwa使ってる人の感想聞きたい。
- 112: 3次だとsmoothmixの方がちゃんと動く印象。2次は未試(3次元動画生成でsmoothmixの自然な動きを理由に優位)。
- 121: エロ出すならsmoothmixで良い感じ。smoothmixはエロ特化すぎて男が現れがちなのでdasiwaにsmoothmix LoRA弱め混ぜてる(エロ特化だが暴れやすい欠点、dasiwaをベースに調整推奨)。
- 126: 二次元のチンポ理解度はDaSiWaの方が良い。SmoothMixは股間設置で適当にチンポ挿しにくる傾向(チンポ描写・挿入制御でDaSiWa優位)。
- 130,132,137,139: DaSiWa確認、Q8でレベルアップ期待。smoothは暴れ馬・ヤンキー、dasiwaは優等生(Q8版強化期待、制御安定でdasiwa優等生評価)。
- 理由まとめ: 動画生成の自然さ(smoothmix 3次優位)、エロ制御・チンポ理解(DaSiWa優位)、エロ特化だが暴れやすい(smoothmix)。
6. その他マイナー/断片的言及
- 62: これいいなあ。なんのモデル使ってるんだろ(特定画像のモデル推測)。
- 157: zony?(Zony? の略か不明だがモデルらしき言及)。
- 一般: モデル探知・ポン出し(メタデータ確認)の話題多め(36,62,232-239)だが特定モデルなし。
全体傾向: ZIT系(軽量VRAM対応)がVRAM制約ユーザー向けに頻出好評。dasiwa/smoothmixは動画・エロ特化で比較議論熱い。bananaはNSFW適性で散見。モデル選定理由は主に「VRAM効率」「制御安定」「生成適性(エロ/動画/アニメ)」に集中。