以下は、提供された5chログから、指定された生成AIの「モデル」に関する話題をすべて抽出した結果です。抽出の基準は以下の通りです:
- 対象モデル:NovelAI v4もしくはv3 (NAI), Pony, illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill), Noobai, FLUX, HiDream, Wan 2.1,2.2 (wan), FramePack
- 抽出対象:これらのモデル名(またはその略称/バージョン)が明示的に言及されている話題すべて。文脈からモデルに関する議論(使用、評価、理由など)であるものを優先。
- 特に、モデルが選ばれている理由があればその点を強調して抽出。
- ログ内の投稿番号を基に、関連部分を引用・要約して整理。重複や無関係な部分は除外。
- 注意:ログ全体で、NovelAI (NAI), Pony, Illustrious (各種バージョン), FramePackの言及は一切ありませんでした。これらは抽出対象なし。
- ログで頻出の「Qwen-Image」や「QWEN」は指定リストに含まれていないため、抽出対象外としました(ただし、Wan2.2と関連づけられた文脈ではWanとして扱う場合あり)。「wai」は文脈からWanのタイポ/略称と判断し、Wanとして抽出。
抽出結果の概要
- Noobai: 1件の言及。静止画アニメ調モデルとして一時使用されたが、好みで他のモデルに戻った例。
- FLUX: 複数件。自然言語対応や背景生成の利便性で選ばれている理由が言及。
- HiDream: 1件の言及。自然言語対応モデルとして例示。
- Wan 2.1/2.2 (wan): 多数の言及。動画生成、静止画性能、自然言語対応、LoRA適用などの理由で選ばれている。EasyWanなどのツールとの組み合わせが多い。
以下に投稿番号順で詳細を記載します。
13: Wan関連
- 内容: 「wanの5Bでt2iしてみました。」
- 抽出ポイント: Wanのバージョン5Bを使用してtext-to-image (t2i) を試した話題。選ばれている理由の言及なし(単なる使用報告)。
29-30,34,39: Wan (waiとして言及, おそらくタイポ/略称), Noobai
- 内容:
- 29: 「浦島過ぎてまだparuparu4つこうてる 静止画でアニメ調出したいなら今の最先端はどんな感じなんやろか」
- 30: 「»29 waiがベタベタのベター verは違いはあれど好みで、ちなワイは14」
- 34: 「»29 ワイもや(paru5は微妙だった) 一時期はwaiやnoobも使ってたがparu4に戻って来た」
- 39: 「»30 wai140をloraなり絵師タグなりで画風調整すりゃそれでだいたいOKなのが現状やね paru4混ぜたマージモデルとかでもええかもね」
- 抽出ポイント:
- Wan (wai): 静止画のアニメ調生成で「最先端」「ベタベタのベター」として推奨。バージョン違い(14,140)が好みで選ばれ、LoRAやタグ/マージモデルで画風調整可能。選ばれている理由: アニメ調の出力が安定しやすく、調整しやすいため。一時使用後、他のモデル(paru4)に戻った例あり。
- Noobai: 静止画アニメ調で一時期使用されたが、好みでparu4に戻った。選ばれている理由の言及なし(一時使用の例)。
42: Wan2.2
- 内容: 「先日wan2.2からcomfyuiインストールしてワークフローについて勉強したいんやけどおすすめのサイトとかあるやろか?」
- 抽出ポイント: Wan2.2を使用してComfyUIをインストールし、ワークフローを勉強中。選ばれている理由の言及なし(導入報告)。
51: Flux
- 内容: 「»46 >Fluxも自然言語だからSDXLまでの「女、エロい、マンコ、濡れてる、俺、チンポ、入れる、お前、嬉しい、俺、嬉しい、みんな、幸せ」みたいな部族語だと上手く行かないからな」
- 抽出ポイント: Fluxが自然言語対応のため、従来のタグ式プロンプト(部族語)では上手くいかない。選ばれている理由: 自然言語対応で使いやすいが、プロンプトの工夫が必要。
64: Wan2.2
- 内容: 「そもそもWAN2.2さわってる人は「映画のようなアニメ調。火花と煙、そしてちらつく光が飛び散る廊下。赤毛の少女が壊れた天井の下にしゃがみ込んでいる。彼女は突然、手前へと駆け出す。カメラは彼女をフレーム内に収めるために後退する」みたいな記述で自然言語つかってないか?」
- 抽出ポイント: Wan2.2を使用する人は自然言語プロンプトで詳細なシーン記述をしている。選ばれている理由: 自然言語で複雑なアニメ調動画/シーンを生成しやすいため。
73: Wan
- 内容: 「wanのモデルだとプロンプトを工夫してもおっぱいの動きが硬いからLoRAを適用すると 揺れを得る代わりに(以前から言われるように)バタ臭やnsfwよりに香っちゃう LoRAは素人が見てもデータセットが少ないじゃないかと思うほど(weight下げても)副作用つよw」
- 抽出ポイント: Wanモデルでおっぱいの動きが硬いためLoRA適用。選ばれている理由: 動画生成のベースとして使用されるが、動きの自然さをLoRAで補う必要あり(副作用あり)。
74: Wan2.2
- 内容: 「»52 毎日そんなことしてたらテクノブレイクしそう 今でもWAN2.2で腎虚になりそうなのに」
- 抽出ポイント: Wan2.2でエロ動画生成が過度に没入感あり(腎虚になるほど)。選ばれている理由: 高品質なエロ生成が可能で没入感が高いため。
76: Wan
- 内容: 「WanとQwenを行ったり来たり忙しいわ」
- 抽出ポイント: WanとQwenを交互使用。選ばれている理由の言及なし(使用状況報告)。
101: Wan2.2 (FLF2V関連)
- 内容: 「»96 ComfyUI公式FLF2Vが高速化対応してるから、これ使えば色変化ほぼない EasyWan22のメインワークフローと違って最低限の構成だから使い勝手向上させるにはスパゲティいじいじの世界になるけど」
- 抽出ポイント: Wan2.2のEasyWanワークフローとComfyUI公式FLF2Vを比較。選ばれている理由: 色変化が少なく高速化対応で動画生成に便利(ただし構成がシンプルすぎる)。
103: Wan2.2
- 内容: 「Wan22で同じ絵柄を出力し続けられるLoraを作る」
- 抽出ポイント: Wan2.2で一貫した絵柄を保つLoRA作成を提案。選ばれている理由: 動画生成時の絵柄安定に有効。
104: Wan (zuntanワークフロー, kijai-WanVideoWrapper)
- 内容: 「»101 zuntanワークフロー kijai-WanVideoWrapperっていう別物なんでやっぱ不可能なことがわかった」
- 抽出ポイント: Wan関連のワークフロー(zuntan, kijai-WanVideoWrapper)を議論。選ばれている理由: 動画生成の速度/機能向上のため(ただし一部不可能)。
119: Flux, Wan2.2
- 内容: 「Fluxでいい感じの背景を生成 SDXL系とloraで好みのリアル系美少女を生成 自撮り写真と生成美少女を使いFlux Kontextで最初の背景に合成 Wan2.2のI2VやFLF2Vを駆使しイチャイチャ動画生成」
- 抽出ポイント:
- Flux: 背景生成と合成(Flux Kontext)で使用。
- Wan2.2: I2V/FLF2Vで動画生成。
- 選ばれている理由: Fluxは背景/合成の利便性が高く、Wan2.2は動画生成に特化(イチャイチャシーン向き)。
121-123: Flux
- 内容:
- 121: 「»119 flux kontextはコラージュにホンマ便利やけどあんまノウハウが広まって無い気がするわ」
- 122: 「»121 ワイはFlux Kontextのおかげで忌々しい競合しまくりReActorをようやく捨てられたわ」
- 123: 「flux kontextは触ろうかなとしているうちにQwenが来て Qwen環境で進めたほうが楽だなとなったので»120のComfyUI&GGUF待ち」
- 抽出ポイント: Flux Kontextをコラージュ/合成で使用。選ばれている理由: 便利でReActorの代替可能(競合が少ない)。ただしQwen環境への移行検討中。
125: Flux, HiDream, Wan
- 内容: 「»124 FluxやHiDream、Wanみたいな自然言語使えるモデルは逆にやりたい事をdeepl翻訳かけた方が確実やと思う ただ、Wanの場合は「ちんぽ/Penis」「まんこ/Pussy」が通じない傾向にあるから日本語で書く時は「男性器」「女性器」って書いてdeepl掛けた方がいい」
- 抽出ポイント:
- Flux, HiDream, Wan: 自然言語対応モデルとして例示。
- 選ばれている理由: 自然言語でプロンプト入力が可能(deepl翻訳推奨)。WanはNSFW単語の扱いが特殊だが、調整で確実に出力可能。
131: Wan2.2 (EasyWan22)
- 内容: 「EasyWan22に4step loraが入ってるけどこれどうやって使うの?」
- 抽出ポイント: EasyWan22の4step LoRA使用方法の質問。選ばれている理由の言及なし(使い方相談)。
152,157: Wan2.2
- 内容:
- 152: 「これwan22でやるにはどうしたらええのん。。?CN使えたっけ」
- 157: 「»152 wan2.2 funていう奴がCN使えるモデルらしいで」
- 抽出ポイント: Wan2.2でCN(ControlNet?)使用の相談。Wan2.2 funがCN対応モデルとして推奨。選ばれている理由: CN対応で拡張性が高い。
158: Wan2.2
-
内容: 「civitai巡回してたら、こんなの見つけたんやが… IMG to VIDEO simple workflow WAN2.2 |
GGUF |
LoRA |
UPSCALE」 |
- 抽出ポイント: Wan2.2のシンプルワークフロー発見。選ばれている理由: GGUF/LoRA/アップスケール対応で動画生成がスッキリ(ただし内部は複雑)。
162: Wan2.2
- 内容: 「Wan2.2で乳揉みで指を沈み込ませるのって出来る? 元絵がそれなりに強く揉んでいても、それ以上指を食い込ませられない……」
- 抽出ポイント: Wan2.2で乳揉み表現の限界相談。選ばれている理由の言及なし(機能制限の議論)。
167: Wan2.2
- 内容: 「easy wan22のフォルダにqwen imageのアレコレを配置して公式やら先達やらのワークフロー読み込んで生成するとどれもノイズ画像しか生成されない」
- 抽出ポイント: EasyWan22にQwen-Imageを配置したワークフローでエラー。選ばれている理由の言及なし(トラブルシューティング)。
180: Wan2.2 (EasyWan22)
- 内容: 「updateやクリーンインストールしたら、easywan22のEasy/00/I2v_ImageToVideo.jsonでtritonのエラーが出るようになっちゃった。」
- 抽出ポイント: EasyWan22のI2Vワークフローでエラー発生。選ばれている理由の言及なし(トラブル報告)。
211: Wan (EasyWan)
- 内容: 「DaxamurのやつをベースにFLF2V(StartImage+EndImageとEndImageのみ)に対応できたぜ ついでにEasyWanにあった最大辺でリサイズするのも」
- 抽出ポイント: EasyWanベースのFLF2Vワークフロー改良。選ばれている理由: リサイズ/動画生成の使い勝手向上のため。
225: Wan2.2
- 内容: 「musubi-tunerとblock swapのお陰で静止画やったらwan2.2を3060でも学習出来てほんま感謝やわ 動画でしか使っとらんかったけど静止画性能もええんやな・・・」
- 抽出ポイント: Wan2.2を低スペック(3060)で学習可能。選ばれている理由: 静止画性能が良く、動画以外でも優秀(musubi-tuner/block swapのおかげでVRAM節約)。
追加の洞察
- Wan2.2が最も頻出で、動画生成(FLF2V, I2Vなど)の基盤として選ばれている傾向が強い。理由は自然言語対応、LoRA調整の柔軟性、静止画/動画の両立。
- Fluxは背景/合成の利便性で、HiDreamは自然言語の例として補助的に言及。
- Noobaiはマイナーで、一時使用の例のみ。
- 指定モデル以外の話題(例: Qwen-Imageの学習/編集機能)が多く、Wan2.2と密接に関連しているため、境界が曖昧だが、タスク厳守で抽出対象外とした。
- 不明点があれば、ログの追加文脈や具体的なモデル名で уточしてください。
—以下は、提供された5chログから生成AIの「モデル」に関する話題を抽出した結果です。抽出の基準は以下の通りです:
- 抽出対象: 生成AIのモデル(ベースモデル、派生モデル、LoRAなど)に関する言及。ログの内容を深く理解し、モデル名やその特性、使い方、評価などの文脈を考慮して抽出。
- 除外基準: 指定された除外モデル一覧(NovelAI v4/v3 (NAI), Pony, illustrious 0.1/1.0/1.1/2/3/3.5vpred (イラストリアス, リアス, ill), Noobai, FLUX, HiDream, Wan 2.1/2.2 (wan), FramePack)に関する話題は基本的に除外。ただし、これらのモデルが「選ばれている理由」(例: なぜそのモデルを使うのか、利点や欠点の説明)が明示的に述べられている場合、その点のみを抽出(全体の話題は除外せず、理由部分だけピックアップ)。
- 抽出方法: ログを投稿番号ごとに分析し、関連する部分を引用・要約。重複や文脈の薄いものは統合して効率化。モデル名がタイポや略称で登場する場合(例: waiはWanの変種として除外扱い)、除外リストに準拠。
- 追加考慮: 除外リストにないモデル(例: Qwen-Image, SD1.5, SDXL, Paruparuなど)を優先的に抽出。LoRAや学習関連の話題もモデル関連として扱うが、ツールやワークフロー中心のものは除く。抽出はログのニュアンスを保ちつつ、簡潔にまとめる。
1. 除外モデルに関する「選ばれている理由」の抽出
除外モデル(特にWan/FLUXなど)の話題は多かったですが、以下のように「なぜ選ぶのか/選ばれているのか」の理由が明示的に述べられている部分のみ抽出します。これらは全体の話題から切り出しています。
- Wan (2.1/2.2など):
- 投稿73: Wanのモデルだとプロンプトを工夫してもおっぱいの動きが硬いため、LoRAを適用して揺れを得るが、副作用としてバタ臭やNSFW寄りになる(選ばれている理由: 基本的な動きの硬さをLoRAで補うためだが、副作用が強い)。
- 投稿229: Wan2.2を3060のような低スペックGPUでも学習可能で、静止画性能も良い(選ばれている理由: musubi-tunerとblock swapのおかげで低VRAM環境でも扱いやすく、動画以外でも静止画に強い)。
- FLUX:
- 投稿119: Fluxで背景生成、SDXL系LoRAで美少女生成、Flux Kontextで合成(選ばれている理由: 背景生成と合成の利便性が高く、リアル系美少女動画作成のワークフローに適している)。
- 投稿125: FluxやHiDream、Wanのような自然言語モデルは、やりたい事をDeepL翻訳で確実に出力可能だが、NSFW単語の扱いに注意(選ばれている理由: 自然言語の使いやすさで、翻訳を工夫すれば確実だが、特定の単語(例: ちんぽ/Penis)が通じにくいため調整が必要)。
これ以外の除外モデル話題(例: Wanのワークフロー、FLUXの自然言語など)は理由が明示されていないため除外。
2. 除外リストにないモデルの話題抽出
除外リストに該当しないモデルに関する話題を抽出。主にQwen-Image/Qwen-Image-Edit、Paruparu、SD1.5/SDXLなどの言及を中心にまとめました。投稿番号順に整理。
- Paruparu (paru4/paru5など):
- 投稿29: Paruparu4を使っているが、静止画でアニメ調を出したい場合の最先端モデルを尋ねる(Paruparu4が古いため、更新を検討中)。
- 投稿34: Paru5は微妙だったため、WaiやNoobを使ってみたが結局Paru4に戻った(選好理由: Paru5の微妙さに比べてParu4が安定)。
- 投稿39: Wai140をLoRAや絵師タグで調整するのが現状OKだが、Paru4混ぜたマージモデルも良いかも(提案: Paru4をマージして画風調整)。
- QWEN-Image / Qwen-Image-Edit:
- 投稿36: ProdigyでQWEN-Imageの学習を通した。ツールはMusubi-tunerで、解像度768の3エポックが10分で完了。日本語学習も可能(利点: 高速学習、日本語対応の可能性)。
- 投稿40: Qwenの学習で、キャプションを自然文(日本語英語併記)とボールタグのハイブリッドにするとAIからノイズ警告が出る(注意点: ハイブリッドキャプションは非推奨)。
- 投稿56: Qwenのi2i(Image-to-Image)が早く欲しい。カメラが動かずstraight-onアングル固定になる問題(要望: i2i機能の追加でアングル制御向上)。
- 投稿65: Qwen-ImageのLoRA作り方の記事を紹介(参考: 深度定制生成:Qwen-Image模型微完全指南ora-CSDN博客)。
- 投稿66: QwenのblockswapノードでVRAM16GBでもFP8が動かせる。速度低下少なく、画風LoRA作り直しでも元SDXL並みの難しさ(利点: 低VRAM対応、画風LoRAの再作成可能だが一発成功しにくい)。
- 投稿67: QwenのProdigy学習が終わった。画像20枚1エポック160ステップで50分、4エポック目から変化なし。Kohya-sd-guiのパラメータ使用(利点: 短時間で学習完了)。
- 投稿69: Qwenは二種類以上のキャラLoRAを混ぜず描き分けできるか?(疑問: LoRAの混ざりやすさ)。
- 投稿76: WanとQwenを行ったり来たり(比較: 両方を併用中)。
- 投稿106: Qwenが編集機能(i2iで指定場所だけ変更)をもうすぐ出す。背景一貫差分作成可能で、中出しLoRAの安定化に使えるかも(期待: 編集機能で差分安定、LoRA+エンド画像の組み合わせ)。
- 投稿120: Qwen-Image-EditをComfyで使えるようになったら教えて(要望: ComfyUI対応)。
- 投稿124: GPTでQwenのプロンプトを作ると、ネガティブ要素(No menなど)が混入し人物が出てしまう問題(注意点: 否定文の扱いがモデル間で異なる)。
- 投稿126: Qwenで文化体験の画像作成。NSFW単語扱えないためGPTで代用(利点: 自然言語処理だが、否定文の工夫が必要)。
- 投稿127: Q8だと綺麗に出るがQ4はクオリティ低い(比較: 量子化レベルで出力差。Q8推奨だがVRAM24GB必要かも)。
- 投稿161: Qwen-Image-Editで差分作り放題。ローカルで動かすにはVRAM40GB必要(要件: 高VRAM必須)。
- 投稿175: Qwen-Image-Editの難易度(VRAM40GB)。5090でも足りないかも(懸念: 高スペック要求)。
- 投稿201: Musubi-tunerのQwen VLで自然語アノテーション可能。絵の中の日本語も少しわかる(利点: WanのLoRA作成に使えるかも)。
- 投稿218: Qwen-Image-Edit FP8版(更新: FP8量子化版登場)。
- 投稿219: Qwen-Image-EditのNF4版が出て、すぐFP8版も(更新: 量子化版の高速リリース)。
- 投稿231: QWENのLoRA作成中、6時間かかる(感想: 昔の機械学習感覚を思い出す、短時間化が進んだ)。
- 投稿232: ComfyUIでQwen-Image-Editが動いた(対応: ComfyUI動作確認)。
- 投稿233: Qwen-ImageのライセンスはApache 2.0でゆるい(利点: 商用利用可能、FLUXのライセンス問題回避)。
- 投稿235: 中華AI(Qwenなど)は英語/中国語しか使えないのが不便(欠点: 多言語対応の弱さ)。
- 投稿238: Qwen-Image-EditでLightningのLoRAが効く(利点: LoRA対応)。
- SD1.5 / SDXL:
- 投稿116: SD1.5時代に背景強いモデルとキャラ強いモデルをlatent合体で使用(手法: 背景/キャラ分離生成の古いテクニック)。
- 投稿119: SDXL系LoRAでリアル系美少女生成(用途: Fluxとの組み合わせで動画作成)。
- その他のモデル/LoRA関連:
- 投稿113: 宮舞モカのブレザー襟LoRA作成難易度が高い(猫デフォルメ、色違いなど再現難)(課題: 複雑デザインのLoRA作成)。
- 投稿207: ちびたいのぶっかけLoRAを改善。解像度512でバッチ/ステップ増やし、モザイクなし素材使用(改善点: 学習効率向上、ペニス/射精位置の正確学習)。
- 投稿228: Danbooruデータセットのタグを自然言語に直してファインチューンすれば最強静止画モデル可能(提案: データセット変換で強化)。
追加の洞察とフォローアップ
- 全体の傾向: ログの多くがQwen-Image/Qwen-Image-Editに集中しており、学習の高速化(Prodigyなど)、編集機能の期待、VRAM要件が話題の中心。除外モデル(Wan/FLUX)の理由抽出では、自然言語の使いやすさや低スペック対応が選ばれるポイントとして浮上。
- 不明点の確認: WaiはWanの変種として除外扱いしましたが、もし別モデルと見なす場合追加抽出可能。Paruparuは明確に除外リスト外なので抽出。
- 提案: もし特定のモデル(例: Qwenの詳細)について深掘りが必要、または抽出基準の調整(例: LoRAを除く)が必要なら、追加情報を教えてください。