以下は、提供された5chログ(833〜1000)から、指定された生成AIの「モデル」に関する話題をすべて抽出したものです。抽出の基準は以下の通りです:
- 対象モデル:NovelAI v4もしくはv3 (NAI), Pony, illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill), Noobai, FLUX, HiDream, Wan 2.1,2.2 (wan), FramePack
- 各モデルの言及箇所をレス番号付きで引用し、関連する文脈を簡潔にまとめます。
- 特に、そのモデルが選ばれている理由(例: 強み、比較、用途)が明記されている場合、それを強調して抽出します。
- ログ中に該当する言及がないモデル(NovelAI, illustrious, HiDream)は「言及なし」と明記します。
- 抽出はログの順序に基づき、重複を避けつつ網羅的にまとめます。
NovelAI v4もしくはv3 (NAI)
Pony
- 939: 「ponyまでで時が止まってるのですが、アップスケールとかはなんか新しいのとかあります? ultimate SDupscale が正義?」
- 文脈: ユーザーが静止画のアップスケールについて質問し、Ponyを自身の知識の限界点として言及。理由: 特になし(単なる知識の基準点として)。
illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill)
Noobai
- 847: 「とりあえずanynoobでbatch12からやってみる」
- 文脈: 漫画背景用のLoRA作成で、旅行写真を基に学習を開始。anynoob(AnyNoob? Noobaiの派生か)を選択。
- 理由: 特になし(学習の初期選択として)。
FLUX
- 969: 「上でflux.1 kontextがイマイチ的な事書いてしまったけど 正規のワークフローでやってみたら指示がかなり効いたので以前の評価は撤回や そのままだと厳しいけど加工すれば漫画の背景とかでいけそうやな」
- 文脈: Flux.1 kontextの評価を撤回し、指示の効きが良い点を指摘。サンプル画像付きで漫画背景用途を提案。
- 理由: 指示がかなり効くため(正規ワークフロー使用時)。ただし、そのままでは厳しく加工が必要。
- 970: 「Fluxも自然言語だからSDXLまでの「女、エロい、マンコ、濡れてる、俺、チンポ、入れる、お前、嬉しい、俺、嬉しい、みんな、幸せ」みたいな部族語だと上手く行かないからな」
- 文脈: Fluxの自然言語対応を指摘し、従来のタグ式プロンプトとの違いを説明。
- 理由: 自然言語対応のため、タグ式(部族語)では上手くいかない(自然言語の柔軟性を理由に挙げる)。
HiDream
Wan 2.1,2.2 (wan)
- 851: 「EasyWanでHiLowのStepsを変更するとSigmasでエラー起きるんやが、Sigmasはどう設定すればええんや? デフォの設定やと、 動画生成「1, 0.94, 0.85, 0.73, 0.55, 0.28, 0」 Refiner「1.0, 0.97, 0.94, 0.90, 0.85, 0.795, 0.73, 0.65, 0.55, 0.42, 0.28, 0.14, 0.0」 に設定されとるみたいやが」
- 文脈: EasyWan(Wan関連ツール)でのSigmas設定のエラー相談。
- 理由: 特になし(ツール使用のトラブルシューティング)。
- 868: 「video_wan2_2_14B_flf2vの高速化で3秒ループ動画、3回結合 そのままだと終わりの3フレームに若干の色ずれ起こったので、EasyWan22のポストプロセスで解像度上げのついでにカラーマッチ」
- 文脈: Wan 2.2の高速化モデルで動画生成し、EasyWan22で後処理。
- 理由: 高速化と色ずれ修正のため(ポストプロセスで解像度上げとカラーマッチ)。
- 890: 「WANとかQwenのLora作りってそもそも5090とかじゃないと無理なんでしょ?」
- 文脈: WANのLoRA作成の難易度について質問。
- 理由: 特になし(ハードウェア要件の確認)。
- 920: 「wanはアニメの学習甘いからかスピード感あるスタイリッシュな動きは苦手な感じするな」
- 文脈: Wanの弱点としてアニメ学習の甘さを指摘。
- 理由: アニメ学習が甘いため、スピード感ある動きが苦手(マイナス理由)。
- 923: 「wanエロ特化? それとちょっと見ない間にqwenってのも流行り出しとるんかwanやらwenやら名前ややこしいで」
- 文脈: Wanがエロ特化かを質問(Qwenとの混同も)。
- 理由: エロ特化の可能性を尋ねる(明確な理由なし)。
- 927: 「wanってエロ特化なんけ? それとちょっと見ない間にqwenってのも流行り出しとるんかwanやらwenやら名前ややこしいで」
- 文脈: Wanのエロ特化を確認(Qwenとの名前混同)。
- 理由: 特になし(確認)。
- 931: 「WANはエロ特化 オンライン系はエロを出せないからWanに頼らないといけないってだけ (FramePackでもいいだろうけどWan2.2のほうが圧倒的に強い)」
- 文脈: WANをエロ特化モデルとして推奨。FramePackとの比較。
- 理由: エロを出せないオンライン系代替として。Wan 2.2がFramePackより圧倒的に強いため(エロ対応の強み)。
- 932: 「WANはもうえっちすぎるんだよね」
- 文脈: WANのエロさを強調。
- 理由: えっちすぎる(エロ性能の高さ)。
- 933: 「好み分かれそうやけどワイはwanでむらかみてるあきアニメみたいな動画出したいで」
- 文脈: Wanで特定アニメスタイルの動画生成を望む。
- 理由: 特定アニメ(むらかみてるあき)風動画を出したいため。
- 937: 「wan2.2の高速化モデルはやたらとスローモーションになるんだが? と思ったら既知の問題で対応中なのか がんばえー」
- 文脈: Wan 2.2高速化モデルのスローモーション問題を指摘。
- 理由: 特になし(既知の問題報告)。
- 942: 「wan2.2のプロンプトいろいろためしていたら なんか3D酔いしそうなぐるんぐるん回る動画 できたんだけど」
- 文脈: Wan 2.2でプロンプト実験し、回転動画生成。
- 理由: 特になし(実験)。
FramePack
- 931: 「(FramePackでもいいだろうけどWan2.2のほうが圧倒的に強い)」
- 文脈: WANのエロ特化説明で、FramePackを代替として挙げるがWan 2.2が優位。
- 理由: FramePackでもいいが、Wan 2.2が圧倒的に強いため選ばれていない(比較でWan優位)。
全体のまとめと考察
- 最も言及が多いのはWan 2.1/2.2で、エロ特化の強み(えっちすぎる、FramePackより強い、エロ対応の柔軟性)が理由として複数回挙げられています。特に931でFramePackとの比較が明確。
- FLUXは自然言語対応の利点が強調され、指示の効きが良い点が選ばれる理由。
- PonyとNoobaiは軽い言及のみで、深い理由なし。
- 他のモデル(NovelAI, illustrious, HiDream)は全く言及なし。
- 抽出はログの文脈を崩さないよう努めましたが、Qwen関連の話題が多いため、Wanとの比較で間接的に言及されるケースがありました。必要に応じて追加のログ提供で再抽出可能です。
—以下は、提供された5chログから、生成AIの「モデル」に関する話題を抽出したものです。抽出の基準は以下の通りです:
- 対象: 生成AIのモデル(ベースモデル、派生モデル、LoRA、アップスケールモデル、背景除去モデルなど)に関する言及。ログ内でモデル名が明確に登場し、議論されている部分を抽出。
- 除外: 指定された除外モデル一覧(NovelAI v4/v3 (NAI), Pony, illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill), Noobai, FLUX, HiDream, Wan 2.1,2.2 (wan), FramePack)を厳密に除外。これらのモデルに関する言及(例: EasyWan22, video_wan2_2_14B_flf2v, anynoobなど、派生や関連するものも含む)は抽出対象外としました。
- 抽出方法: ログのレス番号を参照し、関連する文脈を簡潔にまとめ。モデルが選ばれている理由(例: 性能、使いやすさ、特定の機能)が明記されている場合、それを抽出して明示。
- 注意: 除外リスト外のモデルに限定。LoRA作成の一般論やツール(例: musubi-tuner, ComfyUIのノード)はモデル本体ではないため除外。ただし、具体的なモデル名が絡む場合に限り抽出。抽出結果はログの登場順に整理。
抽出されたモデルに関する話題
1. Qwen(QWEN, Qwen3, QWEN-Image, QWEN-NSFWなど)
- 関連レス: 833, 838, 864, 878, 879, 890, 894, 896, 897, 914, 920, 921, 924, 927, 935, 957, 974, 978, 980, 990, 993.
- 抽出内容:
- Qwenは複数キャラの個別指定に対応しているか?(833)。言語モデルとして知られるが画像出力が可能で、浦島状態になるほど進化(838)。
- musubi-tunerでQwenのLoRA学習が可能で、開始まで1時間格闘したが成功(864)。
- QWEN-Imageベースで版権キャラテスト(例: リュウ、チュンリー)。学習済みキャラは認識しやすく、ファインチューニングが楽でエロチューンがすぐ来そう(878)。qwen3では春日野さくらが誤認される(879)。
- QwenのLoRA作りはVRAM12GBから可能で、ブロックswapのおかげ(890, 894)。
- QWEN-Image LoRa学習結果: booruタグでAdamw8bit学習率1.5e-4や2e-4で覚えが早い(897)。複数キャラLoRAで混ざりやすい問題あり、キャプション工夫が必要(896)。
- 画風学習でfluxベースより良い結果(914)。エロには期待薄だが背景目的で有用(922)。NSFWLoRAで乳首描画可能、柔軟(921, 924)。P0ssyLoRAで性器出力可能だが追従性低下(935)。
- プロンプト追従性と人体構造が優れ、自然言語対応(957)。構図パターンが似やすいが、エロファインチューニングで改善期待(980, 990)。階層指定が必要になる可能性(993)。
- 選ばれている理由(抽出):
- 自然言語対応でプロンプト追従性が高く、破綻ない人体構造(957)。エロ知識が乏しいがNSFWLoRAで柔軟に脱衣・乳首描画可能(921, 924)。版権キャラ認識が強く、ファインチューニングが楽(878)。ブロックswapで低VRAM対応(894)。背景生成に強い(922)。既存モデルより一線を画す可能性(914)。
2. SD1.5
- 関連レス: 853, 882.
- 抽出内容:
- SD1.5の頃の話で、キャラLoRA作成時に背景切り抜きが必要だったが今は不要(853)。SD1.5環境でBra6使用、SDXLでの後継モデルを尋ねる(882)。
- 選ばれている理由(抽出):
- 過去のLoRA作成基準として言及(853)。Bra6のようなエロ対応モデルとして使われていた(882)。
3. SDXL
- 関連レス: 882, 970, 999.
- 抽出内容:
- SD1.5のBra6の後継としてSDXL対応モデルを尋ねる(882)。Flux/SDXLは自然言語対応で、danbooru語だと上手くいかない(970)。主語・対象が明確になる利点(例: grabbing another’s breastsの逆転)(999)。
- 選ばれている理由(抽出):
- 自然言語で主語・対象を明確に表現可能(999)。danbooru語の限界を超える(970)。
4. Bra6
- 関連レス: 882.
- 抽出内容:
- SD1.5環境で使用。SDXLでの後継モデルを尋ねる(882)。
- 選ばれている理由(抽出):
5. GPT-5
- 関連レス: 862.
- 抽出内容:
- GPT-5がキャラ背景を透過一発出力。オンライン画像生成でアルファ値対応(862)。
- 選ばれている理由(抽出):
- 背景透過が容易で、ローカルでも欲しい機能(862)。
6. isnet-anime / isnet-general-use
- 関連レス: 844, 873.
- 抽出内容:
- 背景切り抜きにisnet-animeで高精度(844)。精度比較でisnet-animeが高性能、isnet-general-useも良いとの話(873)。
- 選ばれている理由(抽出):
- 高精度背景透過でLoRA作成に有用(844, 873)。
7. nano banana
- 関連レス: 907.
- 抽出内容:
- 画像編集が強いらしいが、試した人がいない(907)。
- 選ばれている理由(抽出):
8. Ultimate SDupscale / SCUNet / GFPGAN / 4x-UltraSharpV2
- 関連レス: 939, 941, 944.
- 抽出内容:
- アップスケールでUltimate SDupscaleが正義? SCUNet/GFPGANが良いとのチャッピー回答(939)。4x-UltraSharpV2が出ている(941)。SCUNetは実写ノイズ除去に良い(944)。
- 選ばれている理由(抽出):
- アップスケールやノイズ除去に有用。4x-UltraSharpV2は最近のモデル(941)。SCUNetは古いアニメ/ドラマのノイズ減らしに(944)。
全体のまとめと考察
- 主な抽出モデル: Qwen関連が圧倒的に多く、ログの中心話題。自然言語対応とLoRAの柔軟性が理由で選ばれている。除外リスト外のモデルは少数で、SD系やツールモデルが散見される。
- 理由の傾向: 多くの場合、プロンプト追従性、学習のしやすさ、エロ対応の柔軟性、背景/透過の精度が選定理由として挙げられている。除外モデル(例: Wan, Flux)が多用されているログのため、抽出量は抑えめ。
- 不明点: 抽出に曖昧さがあれば、ログの追加提供で уточ可能。