以下は、提供された5chログ(レス番号229〜431)から、指定された生成AIの「モデル」に関する話題をすべて抽出した結果です。抽出の基準は以下の通りです:
- 指定モデル:NovelAI v4もしくはv3 (NAI), Pony, illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill), Noobai, FLUX, HiDream, Wan 2.1,2.2 (wan), FramePack に限定。
- これらのモデルに関する言及(使用例、評価、問題点など)を抽出。
- 特に、そのモデルが選ばれている理由(例: 性能、使いやすさ、組み合わせの強さなど)が明記されている場合、それを強調して抽出。
- ログ全体をスキャンし、関連するレスを引用・要約。指定外のモデル(例: Qwen, SDXL, SD1.5など)は、指定モデルと関連する場合のみ間接的に触れつつ、抽出の中心を指定モデルに絞る。
- 抽出はモデルごとに分類し、レス番号を付記。重複や文脈を考慮して簡潔にまとめる。
1. NovelAI v4もしくはv3 (NAI)
- 424: NAIちゃんでbodystream aborted errorって出て失敗するけどなんやこれ
(NAIのエラーに関する言及。理由の抽出なし。)
2. Pony
- 229: 魔神Ponyリアスって大正義打線やからなあ
(Ponyとリアス(illustrious)の組み合わせが「大正義打線」(非常に強い、優位な選択肢)として評価。理由: AI黎明期の盛り上がりやモデルリークなどの要素が重なり、強力な組み合わせとして選ばれている。)
- 431: civitai行ったらponyしか無かった もうponyで欲しいポーズ出す自信ないわ
(PonyのLoRAがCivitaiでしか見つからないという言及。理由: 欲しいポーズの再現性が低いため、自信がない。)
3. illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill)
- 229: 魔神Ponyリアスって大正義打線やからなあ
(リアス(illustrious)とPonyの組み合わせが「大正義打線」として評価。理由: 同様に、AI黎明期の要素が重なり、強力な選択肢として選ばれている。)
- 231: リアス相当Qwenが来たらWanと合わせてアリババ帝国の完成じゃ
(リアス相当の性能がQwenで実現したらWanと組み合わせると強い。理由: リアスレベルの性能が基準として高く評価され、国家プロジェクトレベルの強力な「アリババ帝国」完成の鍵として選ばれている。)
- 232: つーてもSDXLリアスで最終地点じゃ困るんやけど
(SDXLリアスが最終地点では困るという不満。理由: 進化の停滞を懸念し、次世代への移行を望むため、現在の選択肢として限界を感じている。)
- 237: リアスやnoob作ったか会社が、うまいことビジネスに繋げて大儲けしていれば それに続けと次世代モデルをチューニングする会社が現れていたかもしれんけどね
(リアスを作った会社がビジネスに成功していれば、次世代モデルが増えていたかも。理由: 儲けが出ていないため、気まぐれな大富豪頼みになり、継続的な選択肢として不安定。)
- 259: ソフトは1.5からリアスと凄え進化したけどハードは一貫して3060で戦うのがキツイがコスパ的にこれが最善なのがね
(1.5からリアスへの進化が凄いと評価。理由: ソフトウェアの進化が大きく、コスパ的にハード(3060)と組み合わせるのが最善の選択肢。)
- 428: 銅鏡もIllustrious用を作り直す予定やで
(Illustrious用のLoRAを作り直す予定。理由: 過去のLoRA(銅鏡LoRA)の改善のため、再構築を選択。)
4. Noobai
- 237: リアスやnoob作ったか会社が、うまいことビジネスに繋げて大儲けしていれば
(Noobaiを作った会社がビジネスに成功していれば、次世代モデルが増えていたかも。理由: 同様に儲けが出ていないため、選択肢として不安定。)
5. FLUX
6. HiDream
- 265: HiDream I1はt5xxlとllamaの2つ使ってる
(HiDream I1がt5xxlとllamaを組み合わせて使用。理由: 自然言語対応の強化のため、これらを組み合わせるのが選ばれている。)
- 307: highDreamは使えんけど一貫性は強いんやろうな
(HiDreamの一貫性が強いと評価。理由: スペック不足で使えないが、一貫性の高さが魅力として選ばれている可能性。)
- 328: highDream使うってことは相当なグラボよね?
(HiDreamを使用するには高スペックグラボが必要。理由: 要求スペックが高いため、ハイエンド環境で選ばれている。)
- 350: highDream使うってことは相当なグラボよね? そういやワイも最近スチパン作ってないな・・
(HiDreamの使用例。理由: 高スペックが必要だが、自然すぎる動画生成が可能で努力と時間がかかるため選ばれている。)
- 377: highDream使うってことは相当なグラボよね? 最初はMMD-VRをやるためで演算性能はできるだけ高いのが欲しかったんやけど
(HiDreamの使用に4090などの高スペックが必要。理由: VRAMが豊富でオーバースペックだが、演算性能の高さがMMD-VRなどの用途で選ばれている。)
7. Wan 2.1,2.2 (wan)
- 231: リアス相当Qwenが来たらWanと合わせてアリババ帝国の完成じゃ
(WanとQwenの組み合わせが強い。理由: リアス相当の性能で「アリババ帝国」完成の鍵として選ばれている。)
- 233: Wan2.2FunControlでAVと融合させれば無限の可能性が広がるンゴ
(Wan 2.2 FunControlの使用でAV融合が可能。理由: 無限の可能性が広がるため、画像改変メインの用途で選ばれている。)
- 242: comfyuiの最新テンプレートのWan 2.2 14B First-Last Frame to Videoを使うと色が変わらないみたい
(Wan 2.2のテンプレート使用で色が変わらない。理由: 生成速度が速く、zuntanさんのWFより優位のため選ばれている。)
- 253: comfyuiの最新テンプレートのWan 2.2 14B First-Last Frame to Videoを使うと色が変わらないみたい zuntanさんのWFよりも生成速度も早いので試してみたらどうかな
(Wan 2.2のテンプレートが色変わりなしで速い。理由: 生成速度の速さが理由で推奨。)
- 261: wan22のベンチマーク見ると3060がコスパいいかは怪しくなってきたと思うわ
(Wan 2.2のベンチマークで3060のコスパが怪しい。理由: かかる時間の長さが顕著で、コスパ的に選びにくい。)
- 270: 重い腰を上げてEasyWan22デビューしたんやけど
(EasyWan 2.2のデビュー。理由: カメラワークが量子化と高速化で制限されるが、高スペックでやりたい場合に選ばれている。)
- 275: wanの自然言語が凄すぎるんよな qwenがジェネリック芦田愛菜とは似ていない子を出してきたのは素直に嬉しい
(Wanの自然言語が凄い。理由: NSFW LoRAなしでも応える再現性の高さが選ばれている。)
- 277: Wan 2.2用のFastMixを公開してEasyWan22で対応しといたで
(Wan 2.2のFastMix公開。理由: ガチャ生成時のゴーストと動きの品質改善のため選ばれている。PyTorch 2.7.1に戻したのも不具合対応のため。)
- 279: wan22はプロンプト次第つまりは英語の言い回しでガチャの時間浪費は減ると思うやで
(Wan 2.2はプロンプト次第でガチャ浪費減。理由: 英語の言い回しで効率化され、第二言語学習にもつながるため選ばれている。)
- 283: wan2.2のプロンプトの手引やとzoom inとzoom outは効かんから別のを使えって書いてなかったか?
(Wan 2.2のプロンプト手引でカメラワークの代替を推奨。理由: 効かないため、dolly in/outなどの代替が選ばれている。)
- 285: wanちゃん2.1の時も思ったんやが二次絵のちんちんなりディルドなり出し入れすると不自然に細く伸びたりするのどうにもならんのかね? 2.2でも
(Wan 2.1/2.2で二次絵の不自然さの問題。理由: 写実系では形を保つが、二次絵では悲しい結果になるため、改善を望む選択肢。)
- 287: EasyWan22ならそう
(EasyWan 2.2でPyTorch巻き戻し。理由: 不具合対応のため選ばれている。)
- 291: wan22で8月14日のtorch 2.8.0へのアプデ以降に生成が遅くなったりしたニキは更新した方がええかもな
(Wan 2.2のアプデで生成遅延。理由: PyTorch 2.7.1継続がメリットなし不具合対応のため選ばれている。)
- 295: WanvideoWrapperのverを上げると自動でそうしてくれるぽい
(WanのWrapperバージョンアップ。理由: start_imageバイパスなどの機能追加のため選ばれている。)
- 330: 画像2枚をWAN2.2で動かしてLoRa作ってみたけど割と実用的やな
(Wan 2.2でLoRA作成が実用的。理由: 画像2枚から動かす実用性が高いため選ばれている。)
- 337: Wanテストでズームイン対応。
(Wanで色変わりなしの2倍長動画。理由: 長さ確保のしやすさが選ばれている。)
- 354: Samples/にあるGeneralNsfwのmp4は全部これだけや
(Wan 2.2のNSFWサンプル。理由: ワンボタンでLoRA適用可能のため選ばれている。)
- 376: EasyWan22 PyTorch 2.8.0→ PyTorch 2.7.1で超絶助かり申した
(EasyWan 2.2のPyTorch変更でOOM回避。理由: 10秒対応可能になり、アニメ作成の効率化のため選ばれている。)
- 389: wan22でzuntanニキにはお世話になっとるので
(Wan 2.2の使用でフェラチオなどのプロンプト難。理由: ピストンsexはうまくいくが、フェラチオで不自然になるため、良いプロンプトを求める選択。)
- 399: EasyWan22入れたんやけど
(EasyWan 2.2のワークフロー。理由: プリセットが完動するため助かる。)
- 401/402/411: WanのPostProcessや結合方法。
(Wan 2.2のポストプロセス。理由: 長め動画作成でリファイナー/アプスケが有効のため選ばれている。)
- 426/427/430: lightx2v がhigh/lowでstrength調整。
(Wan関連LoRAの調整。理由: high抜きでステップマシマシがモーション重視のため選ばれている。速さを求めるならhigh適用。)
8. FramePack
- 295: FramePackの1フレーム推論とか使えばええんやろうけどそれやったらどうが作るのと変わらんなあと思ったり
(FramePackの1フレーム推論。理由: Start/End画像の一致が難しい場合に選ばれているが、動画作成と変わらないため限定的。)
- 355: FramePackの1F推論で同人とかの差分画像食わせたLoRAとか作れば差分作れるようになったりせんのかね?
(FramePackの1F推論で差分作成可能か。理由: 同人差分LoRA作成の可能性のため選ばれているが、すでに誰かがやっていそう。)
- 369: FlamePackの1フレーム推論とか使えばええんやろうけど(※FlamePackはFramePackのタイポと思われる)
(FramePackの1フレーム推論。理由: 似た画像量産のため選ばれているが、時間かかる。)
全体のまとめと洞察
- 指定モデルの中で最も言及が多いのはWan 2.1/2.2(自然言語の強さ、プロンプト次第の効率化、NSFW対応が理由として頻出)。次にillustrious(リアス)とPonyの組み合わせが「大正義」として評価されている。
- HiDreamは高スペック前提の一貫性と自然言語対応が選ばれる理由。FramePackは差分や1フレーム推論のユーティリティで言及。
- NoobaiとNAIは少ない。FLUXはゼロ。
- 理由の多くは「性能の高さ(自然言語、再現性)」「組み合わせの強さ」「コスパやスペック対応」が中心。ログ全体がWan/Qwen中心のため、指定モデルが絡む文脈が多い。
不明点があれば追加で質問してください。
—以下は、提供された5chログから、生成AIの「モデル」に関する話題を抽出した結果です。抽出の基準は以下の通りです:
- 対象: 生成AIのモデル(ベースモデル、派生モデル、LoRAなど)に関する言及。ただし、指定された除外モデル一覧(NovelAI v4/v3 (NAI), Pony, illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill), Noobai, FLUX, HiDream, Wan 2.1,2.2 (wan), FramePack)を除外。
- 抽出の焦点: 除外対象外のモデル名が登場する箇所を抽出し、特にそのモデルが選ばれている理由(ポテンシャル、使いやすさ、性能など)が述べられている場合に強調して抽出。
- 方法: ログをレス番号ごとに確認し、関連する部分を引用・要約。重複や文脈的にモデル関連でないものは省略。Qwenが最も頻出するモデルで、除外対象外のため主に抽出(理由として自然言語対応の再現性が高い点などが挙げられている)。他のモデル(SDXL, SD3, sd1.5, dalleなど)も抽出。
抽出結果
Qwen(クエン)関連
- 主な理由: 自然言語対応の再現性が高く、構図や詳細(例: 局部描写、BDSMなど)が柔軟に生成可能。ポテンシャルが高く、LoRAや補助ツールとの組み合わせでエロ描写が強化される。fp8量子化で高速化可能で、初心者でも使いやすい。ただし、デフォルトでは局部描写に制限あり。
- レス229: 「Qwenはポテンシャルこそあるけどわざわざ金かけてファインチューニングする奴いる…?」(ポテンシャルが高いが、ファインチューニングの必要性に疑問)。
- レス231: 「リアス相当Qwenが来たらWanと合わせてアリババ帝国の完成じゃ」(除外モデルとの組み合わせで強力になる可能性を指摘)。
- レス243: 「Qwenは叡知出ないとは何だったのか? これが叡知でなかったら 何が叡知だというのだ! あBDSMさいこうなんじゃ」(エロ描写(BDSM)が可能で、予想以上の性能)。
- レス244: 「デフォだと局部は描けないからqwen_MCNLで補助しているけどRope Bondageはある程度理解しているような気がする」(qwen_MCNLという補助ツールで局部描写を強化。NSFWトリガーワードで股縄など描けるが、複雑な縄描写は限界あり)。
- レス245: 「Qwenの読み方ってクエンでいいの?」(モデル名の読み方確認)。
- レス248: 「もうQwen」(シンプルにQwenの使用を推奨)。
- レス252: 「スレにアップされてるqwenのpng拝借して出力したら元の画像みたいにならないで画像がボヤけるんやけど」(Qwenの出力品質に関するトラブルシューティング)。
- レス275: 「qwenがジェネリック芦田愛菜とは似ていない子を出してきたのは素直に嬉しい」(自然言語で具体的なキャラクター生成が可能で、柔軟性が高い)。
- レス284: 「comfyのバージョンアップで治った 古いバージョンだとqwenのloraが使えないらしくて ボケボケの絵が出たわ」(QwenのLoRA使用時のバージョン互換性問題)。
- レス298: 「QWEN環境構築できたけど画像がモザイクになる…」(Qwenの環境構築時のトラブル)。
- レス311: 「前スレにうpした、Qwenで生成した下絵をSDXLでリファインするワークフローに、アップスケールやらディテーラーやらをブチ込んで」(Qwenを下絵生成に使い、SDXLでリファインするワークフロー。少ないプロンプトでミクさんっぽい出力が可能)。
- レス362: 「クエン凄いですねfp8も高速化使えば25秒ぐらいで出ますし何より自然言語による構図の再現性が高い カラオケボックスもきれいに出るし後ろの画面にスマホ画面がちゃんと反映されてる」(fp8量子化で高速生成可能。自然言語の再現性が高く、詳細な構図(カラオケボックスなど)が正確)。
- レス385: 「RTX5090でサクサクQwenを試すのは何のワークフローがオヌヌメ?」(高スペック環境でのQwen推奨ワークフロー確認)。
- レス391: 「QwenのキャラloraをAi-toolkitで作ってみた 1024サイズ2000stepsで1h50m(768だと1h30m,512だと1h10m) 枚数多いと失敗する30枚くらいで1500~2000stepsあたりが良さげ」(QwenのLoRA学習方法。1024サイズが推奨で、時間効率と品質のバランスが良い)。
SDXL関連
- 主な理由: 自然言語対応の限界があるが、動画生成や描き分けの最終地点として使われる。VRAM要件が高く、ハードウェアの制約が課題。
- レス232: 「つーてもSDXLリアスで最終地点じゃ困るんやけど」(除外モデルとの組み合わせで限界を感じるが、ベースとして使用)。
- レス236: 「二次絵勢的には次世代モデルというより 自然言語でSDXL系を使えるようになるだけでゲームセットやろ?」(自然言語対応で二次絵生成が完結する可能性)。
- レス238: 「同じベースで要求スペックはさほど変わらんよ SDXLの限界詰めるなら自然言語方面しかないんちゃう」(SDXLの限界を自然言語で克服する方向性)。
- レス255: 「そりゃそうやけどそれがSDXLじゃ原理的に無理なんやで」(自然言語対応の原理的な限界を指摘)。
SD3関連
- 主な理由: 自然言語対応の先駆けとしてt5xxlを使ったが、性能がエロ描写をオミットされている可能性。
- レス265: 「昨年のSD3あたりからt5xxlとか使った自然言語対応は始まってたけど自分が本格的に触ったのはFluxからかなあ」(自然言語対応の歴史的文脈でSD3を挙げ、t5xxlの使用を理由に)。
dalle関連
- 主な理由: 自然言語生成の基本例として挙げられるが、追従性はsd1.5より劣る。
- レス267: 「自然言語で生成ってだけならdalleとかでもそうでしょ」(自然言語生成のシンプルな例として)。
sd1.5関連
- 主な理由: 自然言語対応が可能だが追従性が低い。ハードウェアの進化に対して進化が著しい。
- レス259: 「ソフトは1.5からリアスと凄え進化したけどハードは一貫して3060で戦うのがキツイがコスパ的にこれが最善なのがね」(sd1.5からの進化を評価し、コスパの観点で使用)。
- レス267: 「なんなら素のsd1.5だって追従性はともかく自然言語だし」(自然言語対応の基本モデルとして)。
その他のモデル関連(LoRAなど)
- レス247: 「みんなLoraのhighとlow使い分けてるの? highだけでも効くとは書かれてるけど使用感とかあったら聞きたい」(LoRAのhigh/lowの使い分け。highだけでも効果的)。
- レス427: 「lightx2v がhighの方がstrength2.1 lowの方が0.7で入ってるんだけどどういう事だろう? 最近の流れだとhighは入れない方がいいみたいなこと言われてるよね」(lightx2v LoRAのstrength設定に関する議論。highを避ける傾向)。
- レス430: 「プレビューオンにしてたらわかるけどhighのlightx2v抜きはステップ上げんとまともな形にならんのや」(lightx2v LoRAの使用理由: モーション取得に有効だが、ステップ増加が必要)。
全体の考察
- Qwenがログの大部分を占め、自然言語の柔軟性と再現性が高い点が選ばれる主な理由。エロ描写の補助ツール(qwen_MCNLなど)と組み合わせることで強みを発揮。
- SDXLはベースモデルとして頻出だが、VRAMや自然言語の限界が課題。
- 他のモデル(SD3, dalle, sd1.5)は歴史的・比較的な文脈で登場。除外モデルが多いため、抽出量は限定的。
- 抽出できなかった部分: 除外モデル(Wan, FramePack, HiDreamなど)の言及が多数あり、それらはスキップ。LoRA関連はモデル派生として一部抽出。
不明点があれば追加で質問してください。