以下は、提供された5chのログ(241から440までのレス)から、指定された生成AIの「モデル」に関する話題をすべて抽出したものです。抽出対象は以下のモデルに限定し、各モデルごとにログの該当レス番号と内容を引用・整理しました。特に、そのモデルが選ばれている理由(例: 性能、速さ、軽さ、LoRA対応など)が明記されている場合、それを強調して抽出しています。ログに登場しないモデル(例: NovelAI (NAI), Pony, Noobai)は「該当なし」と記載します。
抽出の基準:
該当なし。ログ全体で言及が見られませんでした。
該当なし。ログ全体で言及が見られませんでした。
244: “ってどんな使い方がいいん?イラストリアスみたいなキャラ内蔵型でもなくLoraもないからよく分かってない”
(イラストリアスを例に挙げ、キャラ内蔵型やLoRAの有無を比較。選ばれている理由: キャラ内蔵型の使いやすさ(ただしここでは他のモデルとの比較で欠点を指摘)。)
345: “クソデカWF使った事あるけどリアスの生成1枚に15分とか掛かる奴だったわ どっかに隠しノード置いてあってこっそりFluxでも回してんのかと思ったで”
(リアス=Illustriousの生成が遅い点を指摘。選ばれている理由: なし(むしろ欠点として生成時間の長さを挙げている)。)
377: “リアスで元絵ガチャしながらwanで動画ガチャしたくなる時がある”
(リアス=Illustriousを元絵生成に使い、Wanと組み合わせる使い方を言及。選ばれている理由: 元絵ガチャ(ランダム生成)の用途に適している点。)
該当なし。ログ全体で言及が見られませんでした。
Wan(主にWan 2.2やEasyWan22など)の言及が多く、動画生成やLoRA作成の文脈で登場。選ばれている理由として、LoRAの豊富さ、プリセットの便利さ、動画生成の速さ・柔軟さが挙げられている。
300: “今週色々作ったwan2.2のLoRAを置いといたで ■anal_beads_high_wan-2-2_i2v_A14B(アナルビーズLoRA) ■anal_jelly_high_wan-2-2_i2v_A14B(アナルゼリーLoRA) ■cheek_bulge_fellatio_high_wan-2-2_i2v_A14B(歯磨きフェラLoRA) ■glans_licking_high_wan-2-2_i2v_A14B(亀頭舐めLoRA) ■spread_anus_high_wan-2-2_i2v_A14B(アナルくぱぁLoRA)”
(Wan 2.2用のLoRAを複数共有。選ばれている理由: LoRA作成の柔軟さ(特定のエロティックなポーズやアクションを生成可能)。)
314: “»208 の続きや LoRAプリセットサンプルをEasyWan22に追加したで 口ちんこはEndImageのみ指定(SwapStartEnd)で生成しとる 口ちんことダブルジョブ パイズリと口ちんこ にょろにょろLoRA 中指LoRA(中指注意) 水没LoRAで水責め 水没LoRAでL.C.Lごっこ(閲覧注意) 壁紙LoRA”
(EasyWan22にLoRAプリセットを追加。選ばれている理由: SwapStartEndなどの機能で逆生成が可能で、ふたなりなどのまっとうな生成に適している。)
318: “Zuntanのプリセットほんと便利やなあ s://files.catbox.moe/6vpi89.mp4”
(Wanのプリセットを便利と評価。選ばれている理由: プリセットの便利さ(動画生成の効率化)。)
334: “»314 いつもサンガツ ガラスキスがええなぁ リアル系、昔生成した画像の動画化”
(EasyWan22のサンプルを評価。選ばれている理由: リアル系動画化の質の高さ。)
349: “»208,314 の続きでEasyWan22への本日最終サンプル追加や 「つっ ついにっ 念願のッ チンポ生え薬ーーーっっっ」@『ピンクスナイパー』米倉けんご まっとうなふたなりちんぽのためにSwapStartEndでふたなりなEndImageから逆生成しとるで このためにポイントモザイクの逆順オプション追加したわ”
(EasyWan22にサンプル追加。選ばれている理由: SwapStartEndで逆生成が可能で、ふたなり生成の精度向上。)
358: “Wan 2.2のテンプレWFのLoRA使わない方でプレビューも保存された各フレームもカラーなのにmp4の中身だけモノクロなんやが誰が悪さしてるんや?”
(Wan 2.2のテンプレートWFの問題点指摘。選ばれている理由: なし(トラブルシューティング)。)
377: “リアスで元絵ガチャしながらwanで動画ガチャしたくなる時がある”
(Wanを動画ガチャに使用。選ばれている理由: 動画生成のガチャ(ランダム性)の楽しさ。)
382: “general nsfw LoRAとプロンプトだけでどうにか乳首責め動画作れないかとガチャしてるけどたまにマシンガンみたいな速さで乳首つねるの見て笑ってまうわ 乳吸いや乳首引っ張りはできるけど流石に乳首つねったりこねたりするのはLoRA作らんと無理かなあ…”
(Wanで乳首責め動画生成を試行。選ばれている理由: LoRAとプロンプトでNSFW動画生成が可能(ただし限界あり)。)
386: “X見てるとコイカツで激シコな動画作ってる人よく見るけど、コイカツで肌の質感、アニメーション、服、キャラ、背景etc揃えて動かすのとWANで生成するのどっちが楽なんや? WANと同じで一度コイカツ環境整ったら自分の思うように動かせるもんなんか?”
(Wanとコイカツの比較。選ばれている理由: 生成の楽さ(環境整えれば思うように動かせる)。)
389: “乳揺れLora、今日wan2.2用出てるやん”
(Wan 2.2用乳揺れLoRAの登場。選ばれている理由: LoRAの更新で動画のリアリティ向上。)
394: “»393 これやな” (おそらくWan 2.2用LoRAのリンク共有)。
(Wan 2.2用LoRAの共有。選ばれている理由: なし(共有のみ)。)
Qwen(主にQwen-Image, Qwen-Image-Edit)の言及が非常に多く、導入方法、性能、LoRA学習、BlockSwapなどのカスタムノードが話題。選ばれている理由として、生成の速さ(30秒程度)、軽さ(VRAM節約)、LoRA対応、動画生成のクオリティの高さが頻繁に挙げられている。
319: “重い腰を上げてqwen導入したやが、Q4ggufつこてるのにVRAM24Gb+おもらししてるわ clipもQ4ggufに変えたけどプロンプト変更一発目はもれる+アプスケ入れたらそこでも漏れる なんか間違ってんかな?”
(Qwen導入とVRAM問題。選ばれている理由: なし(トラブルシューティング)。)
320: “WFパッと見やけどQwen-ImageとQwen-Image-Editを両方同時に走らせてるからやないか・・・? こういうモジュラー式のWFはあんまりオススメしないわ VRAM24GBあるなら公式テンプレそのまま使う方が早いし綺麗やぞ”
(Qwen-ImageとEditの同時使用を避け、公式テンプレート推奨。選ばれている理由: 速さと綺麗さ(公式テンプレートが優位)。)
323: “»320 片方バイパスしてみたけど変わらん見たいや 公式テンプレはなんつーか激重なイメージやわ”
(公式テンプレートの重さを指摘。選ばれている理由: なし(欠点指摘)。)
324: “3060でqwen image editスワップせずに使ってるで 公式のWFのモデルとTEをGGUF対応に変えただけで十分使えるで”
(Qwen-Image-EditのGGUF対応で使用。選ばれている理由: GGUFで軽く十分使える点。)
325: “VRAM12GBのワイですら公式テンプレで5分かからず生成出来とるんやからVRAM24GBもあるなら余裕やと思うけどな・・・”
(公式テンプレートの生成時間。選ばれている理由: 速さ(5分未満)。)
327: “Qwen-ImageってBlockswap出来るんか?”
(BlockSwapの可否。選ばれている理由: なし(質問)。)
328: “上記の約30秒で出るんやけど45秒とか1分になってもいいから省VRAMにならんもんか…”
(生成時間30秒。選ばれている理由: 速さ(ただしVRAM節約を望む)。)
331: “Qwen-Imageを30秒でクソ重いとか言ってたのかよただのハイスペマウントやんけ”
(生成時間30秒を「重い」とする意見を批判。選ばれている理由: 速さ(30秒は速い)。)
332: “公式WFのこの部分をGGUF対応に変えて4stepLoRAをオンにしてるだけや これで1枚あたり50秒ぐらい Q4やとbananaのが性能ええねんな”
(GGUF対応で50秒生成。選ばれている理由: 性能の良さ(banana比)。)
336: “VRAM8Gでもアプスケとか抜きでlighting併用なら45秒やな (そもそも漏れるってのがどういう状態なのか分からんが) なんか謎のggufローダー使ってるみたいだが、gguf公式のローダーはnativeとの相性をちゃんと考慮されてるからそっち使った方がいいんじゃないか”
(VRAM8GBで45秒生成。選ばれている理由: 軽さ(公式ローダーの相性良さ)。)
337: “Qwen-Image使ってみたいんやがどこから入るのがやりやすいんだろう”
(導入方法の質問。選ばれている理由: なし(導入相談)。)
339: “ワイ環やとimageeditのCLIPにGGUF使うとエラーでよるな mat1 and mat2 shapes ・・なやつ 一応対応策はあがっとるけど もう正式対応したかなと思ったけどまだみたいや”
(Qwen-Image-EditのGGUFエラー。選ばれている理由: なし(トラブル)。)
342: “clipにgguf使うとmmproj-bf16.ggufってやつも一緒に入れておかないとダメってのは見たけどそれはいれてるんか?”
(GGUF対応のTips。選ばれている理由: なし(トラブルシューティング)。)
350: “nunchaku版qwenてのがあるみたいやね windowsで簡単に動いたら軽くてええんやろうけどようわからん”
(nunchaku版Qwenの存在。選ばれている理由: 軽さと簡単さ(Windows対応)。)
352: “nunchakuはcomfyで使えてめちゃくちゃ生成速いで Qwenに関しては現状lora未対応(lightningをマージしたモデルを用意してくれてる) image editもまだやけど期待して待ってる”
(nunchaku版の速さ。選ばれている理由: 生成の速さ(ただしLoRA未対応)。)
355: “まぁとりあえず動くようになったけど、目的だったeditでノリやモザイクを消してくれるLoRAが消えてて終わりや… まぁ消えても知らない部分だからちゃんとは描けないよってのは言ってたけど”
(Qwen-Image-EditのLoRA使用。選ばれている理由: Edit機能でモザイク除去可能(ただし限界あり)。)
356: “ニキがいま使ってるWFより»336のWFの方が確実に早いし軽いからワイはそっちをオススメしておくで vaeのggufローダーは聞いた事ないな・・・そもそもggufのvaeなんてあるんか・・・?”
(WFの比較。選ばれている理由: 速さと軽さ。)
359: “ggufのcustom nodeにあるはず”
(GGUFノードの存在。選ばれている理由: なし(Tips)。)
361: “夜にしか時間が取れないとはいえ、1週間近くQwen Image LoRAのキャプションファイルの編集をやって、やっとこのコスを出せるようになった 自然言語のキャプションファイルの編集は面倒くさすぎるんよ”
(Qwen-ImageのLoRA学習。選ばれている理由: LoRAでコスチューム生成可能(編集の面倒さを指摘)。)
366: “»336 試しにこれそのまま走らせてみたけどこんな感じやな 前のワークフローも組み換え後はこんな感じなんやが時々跳ね上がったり動画見たりゲームしたりしてるから跳ね上がって溢れると困るんよね 速度を落としてVRAM消費をさげられないんやろか…”
(QwenのVRAM使用。選ばれている理由: なし(VRAM最適化の相談)。)
379: “Qwen imageのBlockSwapノードないんかなって調べたらshiba*2ニキがQwenで使えるノード作ってたで。”
(BlockSwapノードの存在。選ばれている理由: なし(共有)。)
380: “»131 easywanを使わないで純正ワークフローをぶん回すただし”
(純正WFの使用。選ばれている理由: なし(文脈不明瞭)。)
399: “shiba*2ニキのQwen-Image用BlockSwapめっちゃ効いて草やで ワイ環(Vram12GB)やとfp8モデルを使ってBlockSwap値38あたりがちょうどいい感じや”
(BlockSwapの効果。選ばれている理由: VRAM12GBで効率良く生成可能(速さと軽さ)。)
404: “Qwen-Image用のBlockSwapノード DLしたqwen_image_block_swap.pyをcustom_nodesフォルダに入れて ComfyUIを起動/再起動したら使える様になる Qwen-Image-Editにも使えたで Vram12GB+RAM128GBのワイ環でもfp8モデルをlightning噛ませて8stepで30秒 editの方は1分で生成出来る様になったわ”
(BlockSwapノードの導入方法。選ばれている理由: 生成時間短縮(30秒/1分)と軽さ(VRAM12GB対応)。)
406: “musubi-tunerでQWEN-ImageのLORA学習しようとしてるんやが、 学習走らせるとsageattentionがインポートできないみたいなのがでるんや。 これって無視してもええんかな?それともsageattentionってのをインストールしないと駄目なんか?”
(Qwen-ImageのLoRA学習。選ばれている理由: なし(トラブル)。)
412: “無視して良い 入れたい人は入れたら良い”
(LoRA学習のTips。選ばれている理由: なし(回答)。)
414: “Qwen-Image用のBlockSwapノードを作成したshiba*2ニキは、過去のnoteの記事で ggufファイル使うんならBlockSwapじゃなくて、↓の中にあるUnetLoaderGGUFDisTorch2MultiGPU使うほうがいいと書いとったね ワイにはBlockSwapとの違いがようわからんけど、こっちのほうが直接RAMの使用量を指定できてわかりやすい”
(UnetLoaderGGUFの推奨。選ばれている理由: RAM指定のわかりやすさと軽さ(BlockSwap代替)。)
420: “»414 うおーブロックスワップ探してきて組み込み終わった後にー! ありがたいからまた組み込むね…サンガツ!”
(UnetLoaderの共有。選ばれている理由: なし(感謝)。)
424: “Gigantic StatueがQwenでも出来ると聞いて まねしてみた ※リアル系注意”
(Qwenで特定のスタイル生成。選ばれている理由: リアル系生成の対応力。)
428: “EasyQwenImage全裸待機”
(EasyQwenImageの待機。選ばれている理由: なし(ユーモア)。)
429: “»412 サンガツ!とりあえず学習走らせてLORA作ってみる。”
(LoRA学習の継続。選ばれている理由: なし(感謝)。)
431: “»428 noteにほぼeasyレベルのバッチ用意して導入解説してくれてる人おるで当然無料で そのままではエロは出来ないけどeasywanと組み合わせればええだけやし”
(Easyレベルのバッチ導入。選ばれている理由: 無料で簡単、EasyWan組み合わせでエロ生成可能。)
436: “ComfyUI普通に入れたらBrowsTemplateからImage->Qwen-Image Text to Image選んだら足りないものDLするか?って聞かれるからそのままダウンロードしたら使えるはずやけど”
(Qwen-Imageの導入方法。選ばれている理由: 簡単さ(自動DL)。)
437: “UnetLoaderGGUFDisTorch2MultiGPU使ってみたけど、使い方がわからんかったがやたらGPU使用率が下がった”
(UnetLoaderの使用。選ばれている理由: GPU使用率低下(軽さ)。)
439: “正直あんま詳しくないならggufでもblockswap使った方が手っ取り早いと思うで UnetLoaderGGUFDisTorch2MultiGPUはワイも正しい使い方というか数値が分からんから投げたわ・・・”
(BlockSwapの推奨。選ばれている理由: 手っ取り早さ(初心者向け)。)
以下は、提供された5chログから、生成AIの「モデル」に関する話題を抽出したものです。抽出の基準は以下の通りです: