以下は、提供されたなんJのログから、指定された生成AIのモデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する話題をすべて抽出したものです。抽出の基準は以下の通りです:
- ログ内の投稿番号を基に、関連する言及を引用・要約。
- 各モデルごとにグループ化。
- 特に、そのモデルが選ばれている理由(例: 高品質、使いやすさ、特定の機能など)が明記されている場合、それを抽出・強調。
- ログ内でObsessionはNoobai(NoobAI)の派生モデルとして扱われているため、Noobaiのカテゴリに含めています(例: Obsession v2, oneObsession, copycatNoobなど)。同様に、rouweiはPonyベースの派生として一部言及されているため、Ponyに含めています。
- 言及がないモデル(NovelAI (NAI), FLUX)は該当なしと明記(ただしFLUXは821で軽く言及あり)。
- 抽出はログの文脈を尊重し、過度な解釈を避けています。日本語で回答。
NovelAI (NAI)
Pony
- 681: rouweiくんhaydeeとか出たりするからな。あっちが異端(rouweiはPonyベースの派生モデルとして言及。異端的な出力が理由で選ばれているわけではなく、比較の文脈)。
- 733: RouweiだとMitaは出たけど、WAI系やNoobAI系では出ない。Rouweiの学習・データセットが特殊なんやと思う(理由: データセットが特殊で特定のキャラ(Mita)が出やすい)。
- 739: rouweiは比較的新しいからでる。これも別に特殊じゃない。rouweiのデータセット時期より新しいObsessionで出ないからこういう表現にしてる(理由: データセットが比較的新しく、特定のキャラが出やすい)。
illustrious(イラストリアス, リアス,ill,IL)
- 649: リアス用のTiledに対応したモデルも出てたし、ComfyUIで再挑戦したけど結局細部まできれいに出すことが出来なくて諦めてしもうた(理由: Tiledアプスケールに特化したモデルがあるが、細部表現が上手くいかず諦めた)。
- 733: illはもっと古いから当然出ない(理由: データセットが古いため、特定のキャラが出ない)。
- 739: illはもっと古いから当然出ない(理由: データセットが古いため、特定のキャラが出ない)。
- 743: Mita-MiSide-IL-v1-07.safetensorsってloraを使ってるで(IL=illustriousのLoRAとして言及。特定のキャラ生成に使用)。
- 829: リアスとかnoobの頃から全然環境更新されてない(理由: エロやタグの制限が厳しく、更新が進まない)。
- 830: リアス1年前やっけ口淫矢のごとしや(1年前のモデルとして言及。古さの文脈)。
- 838: リアスやnoobからもうそろそろ1年とはいえ新技術驚き屋もええんやが本音いえばdanbooruセット更新くらいでええんよな(理由: danbooruタグの更新だけで十分、安定性が求められている)。
- 839: リアス0.1で作ったlora使えんくなるとしんどいな(理由: LoRAの互換性が良いが、新しいモデルで使えなくなるのがしんどい)。
Noobai
- 670: Obsession v2確かに新しいキャラもでるけど misideのmitaとか出なくなってるのはどういうことや(理由: 新しいキャラが出るが、一部のキャラ(mita)が出ない)。
- 675: Obsessionに限らず有名どころを試したら手持ちのバージョンだと全部出ないんだけど(理由: 特定のキャラが出ない)。
- 688: そういや出るキャラ調べたくて2024/10から新規作成されたdanbooruのタグを抽出したりしたんやけど… Obsessionに限らず(理由: danbooruタグの抽出でキャラ確認。名称変更が悪影響の可能性)。
- 694: ほんまObsessionは使いこなすの難しいで(理由: 使いこなしが難しい)。
- 713: oneObsession(oneObsessionとして言及。censoringの例で使用)。
- 723: copycatNoob(copycatNoobとして言及。アヒルcensorの例で使用)。
- 726: copycatNoob(copycatNoobとして言及。アヒルcensorの例で使用。強度調整でアヒルが減るかも)。
- 729: waiだとナースちゃん超確率で顔とかおちんちんとか生えるからガチャ渋いわ(WAI=Noobai系。出力のガチャが渋い)。
- 733: WAI系, NoobAI系では出ない。Rouweiの学習・データセットが特殊なんやと思う(理由: データセットが古いため、特定のキャラが出ない)。
- 736: Noobなら公式のサンプルにミタいるで。noob作者がバージョン説明で言及してる(理由: 公式サンプルで特定のキャラ(mita)が出る)。
- 739: waiやnoobはでない。データセットが古いからそれは当然や(理由: データセットが古いため、特定のキャラが出ない)。
- 829: noobの頃から全然環境更新されてない(理由: エロやタグの制限が厳しく、更新が進まない)。
- 831: Obsessionがダンボールやpixivから追加学習してくれて 最新キャラ追加されているみたいやしもうこれでええかなあって感じや(理由: 追加学習で最新キャラが出る。高品質で十分)。
- 837: obsessionいいな、やっぱりタグだけでキャラ出るのは便利や。絵師やクオリティタグ入れないと普段使いのWAIと比べて粗めな絵柄な気もするが(理由: タグだけでキャラが出る便利さ。絵柄が粗めだが調整可能)。
- 838: noobからもうそろそろ1年とはいえ(1年前のモデルとして言及)。
- 839: noob系v-predでも使えるで(理由: LoRAの互換性が良い)。
- 840: 3人同時に出しても混ざらないのはほんまに凄いで(理由: 複数キャラの出力が混ざらず安定)。
- 841: waiの絵柄が好みやからwai-obsessionが欲しいで(理由: 絵柄の好みで欲しい)。
- 844: 0.1で作ったLoRA普通にnoob系v-predでも使えるで(理由: LoRAの互換性が良いが、色味がおかしくなる場合あり)。
- 846: obsessionhは指定の仕方が悪いんだろうけどいつも使ってるのに比べると絵柄が安定しない気がして自分としてはいまいち使いにくい(理由: 絵柄が安定しないため使いにくい)。
FLUX
- 821: 次のqwen imageとかfluxとかが主流になったら分からんよ(理由: 将来の主流モデルとして言及。VRAMの必要性が増す可能性)。
Wan
- 664: EasyWan22もしれっと姫騎士ニキ最新Loraが組み込まれてて仕事早すぎ。Qwen2509ちょっと遊んでみた第一印象はナノバナナを「100点」とすると Qwen「50点」、Qwen2509「70点」位かな。何にせよローカルで遊ぶには勿体ないほど高品質なモデルであるのは確か(理由: 高品質でローカル向き。Lora組み込みが早い)。
- 665: wan2.5の情報増えてきてるが当面は有料APIみたいや。ローカルにモデル提供してくれるんやろか(理由: 有料APIのためローカル待ち)。
- 667: wan2.5はどのぐらいクオリティ上がってるか楽しみやな(ローカルに降りてくるなら)(理由: クオリティ向上に期待)。
- 668: 2.5明日ってのはローカルじゃないのか。ローカルに来るまで待つ日々(理由: ローカル待ち)。
- 674: 明日のwan2.5はあくまでプレビューだからローカルは無しなのかな。正式版はローカルも来てほしいわ(理由: プレビュー版のためローカル待ち)。
- 715: wan2,2は最低でも10-10のトータル20step必要だから…(理由: ステップ設定の最適化で高速化なしの仕事分担が良い)。
- 735: easywan初めたんだけど(初心者質問。メモリ設定の文脈)。
- 738: ちょっと前のちもろぐにwan2.2のベンチのってるから参考になる?(理由: ベンチマークでメモリ(64GB以上)が推奨)。
- 746: 5090使ってるならBlocksToSwapを0にするとええで、うちだと40の時より25%くらい生成早くなった(理由: 設定変更で生成速度向上)。
- 747: stability matrixにもeasy wan入れられるんやろか(共用したい文脈)。
- 774: Wan2.5 もう来たんか?(リリース待ち)。
- 789: wan2.5の日本語セッションとやらが始まりそうやで(xのライブ機能)。
- 792: wan2.2が整ってきたと思ったらもう2.5来てるんやね。2.2はデカ乳首でも綺麗に描写されるから助かる(理由: 細部描写が綺麗)。
- 794: comfyui公式アカで日本語で紹介ストリーミング配信してるね(wan2.5の紹介)。
- 798: wan2.5… 5枚まで、イメージつかえるとか、音声も対応とか、10秒までいけるとか面白そう。2.5の数字が飛んだ理由は次のバージョン(3)の半分まで来たという意味合いらしい。中国の電話番号あるとプレビュー版落とせそうな雰囲気(理由: 多機能で面白そう。プレビュー版のため国内優先?)。
- 804: Wanのセッション… 動画がグダグダだったので動きはよく分からんかったけど、ローカルに来てくれれば面白そうやったな(理由: ローカル待ちで面白そう)。
- 808: いまcomfyアップデートして、apiノードだしたけど、動かそうとしたら、課金の画面でた(API課金の文脈)。
- 832: wanも2.5から先がAPI利用だけになるなら2.2が動画版リアスみたいな立ち位置になんのかな(理由: API限定なら2.2が安定版として残る)。
- 835: wan2.5はapiやと…?動画ガチャに戻るわ(理由: APIのためローカル待ち)。
- 836: WanAnimateでiwaraのすけべダンス踊らせるの捗る(理由: 動画生成で捗る)。
Qwen
- 655: Qwen-Image-Edit-2509はComfyUI本体をアプデすると使える様になる「TextEncodeQwenImadeEditPlus」で本来の性能を発揮する感じやな(理由: ComfyUIアップデートで性能発揮)。
- 658: Qwen-Image-Edit-2509の公式WFが見当たらない(公式WF探しの文脈)。
- 659: Qwen面白そうやな、おかず作りが終わったら試してみるか(理由: 面白そう)。
- 660: 公式WFはまだ無いな。ワイフローで良ければ»655のpngの中に入ってるで(ワークフローの共有)。
- 664: Qwen2509ちょっと遊んでみた第一印象は… Qwen「50点」、Qwen2509「70点」位かな。まだプロンプトを練ればもっと良くなる余地はあると思うけれど。何にせよローカルで遊ぶには勿体ないほど高品質なモデルであるのは確か(理由: 高品質でローカル向き。プロンプト次第で向上)。
- 666: Qwen-Image-Edit用(2509でも使用可能)のLightning Loraもあるで。Qwen-Image用よりはEdit用の使った方がプロンプトの効きが良い気がする(理由: LoRAでプロンプトの効きが良い)。
- 676: Qwenでも一応実写的に出るで。Qwen2509, Qwen(比較の文脈。実写的に出る)。
- 678: ワイもQwen2509使いたくてcomfyUIをアップデートしたら…(アップデートで使用)。
- 679: あと12回アプデしたら完全体ローカルになりそう(Qwen2509の進化に期待)。
- 782: ヌンチャクきてたでー(nunchaku=Qwenの軽量版として言及)。
- 783: Qwen imageで画像参照するのとはまた違うかな(nunchakuの確認)。
- 784: 同じやで。劇的に軽くなるverやと思っといたらええlightningまだやけどな(理由: 軽量で劇的に速い)。
- 787: QIEでもできていたけど2509で三面図風(理由: 三面図風生成が可能)。
- 790: nunchaku版はnunchaku用のloraしか使えないとか聞いた気がするで(LoRA制限の文脈)。
- 793: nunchakuはモデル内部のランクをいじっとるから…(理由: 内部構造変更で軽量だがLoRA互換性が崩れる)。
- 821: 次のqwen imageとかfluxとかが主流になったら分からんよ(理由: 将来の主流モデルとして言及。VRAM必要性が増す)。
- 828: QwenでARC A770が…(ベンチマークの文脈。速度比較)。
以下は、提供された5chログ(647〜846)から、生成AIの「モデル」に関する話題を抽出したものです。抽出の基準は以下の通りです:
- 生成AIのモデル(チェックポイント、LoRA、関連ツールなど)に関する言及を中心に抽出。
- 除外モデル一覧(NovelAI/NAI, Pony, illustrious/イラストリアス/リアス/ill/IL, Noobai, FLUX, Wan, Qwen)に該当するものは除外(例: Qwen-Image-Edit-2509, EasyWan22, wan2.5, NoobAI系, リアスなど)。
- 除外リストにないモデル(例: Obsession, Rouwei, NanoBanana, Suno, PlumMixなど)の言及を優先。
- 特に、そのモデルが選ばれている理由や評価(利点、欠点、比較など)が述べられている場合に抽出。
- ログの文脈を崩さないよう、関連する投稿番号と内容の要約を記載。重複や類似内容は統合して簡潔にまとめた。
抽出されたモデル関連の話題
1. Obsession(主にv2やoneObsession, obsessionhなど)
- 関連投稿: 670, 675, 688, 694, 713, 831, 837, 840, 841, 846。
- 抽出内容と理由:
- Obsession v2は新しいキャラが出るが、一部キャラ(例: misideのmita)が出なくなったという指摘あり。Raehoshiのような一部キャラだけ学習したわけではなく、何らかの悪さ(同名被りや名称変更の影響)が原因か。
- 使いこなすのが難しいが、タグだけでキャラが出るのが便利。特に3人同時に出しても混ざらない点が凄いと評価。絵柄が粗めで安定しにくいが、絵師やクオリティタグを入れずに使えるため、普段使いのモデル(例: WAI)と比べて調整しやすい。
- 選ばれている理由: 最新キャラが追加学習されており、danbooru/pixivから更新されているため、もうこれで十分という声。LoRAなしでキャラが出る利便性が高く評価されているが、絵柄の安定性に不満あり(例: obsessionhは指定次第で安定しない)。
2. Rouwei
- 関連投稿: 675, 681, 683, 733, 739。
- 抽出内容と理由:
- Rouweiはhaydeeやmitaのようなキャラが出やすい。データセットが比較的新しいため、最近のキャラが出る(例: 2024年のmitaが出る)。
- 他のモデル(例: WAI系, NoobAI系)と比べて、学習・データセットが特殊で、特定のキャラが出やすい異端児。Obsessionで出ないキャラが出るため、比較で言及。
- 選ばれている理由: データセットの新しさが理由で、Rouwei系以外では最初から出ないキャラが多いため、最近のキャラ生成に適していると評価。
3. NanoBanana(ナノバナナ)
- 関連投稿: 664。
- 抽出内容と理由:
- 比較サンプルでナノバナナを「100点」と高評価。Qwen系(除外)と比べて高品質で、ローカルで遊ぶのに勿体ないほど優秀。プロンプトを練ればさらに良くなる余地あり。
- 選ばれている理由: 高品質なモデルとして基準点(100点)とされ、比較対象として挙げられている。実写的な出力が可能で、個人的感想として50〜70点のモデルより優位。
4. Suno(v5やv3.5)
- 関連投稿: 721, 722。
- 抽出内容と理由:
- Sunoがいよいよv5になった。v3.5でいいからローカルに放流してほしいという声。
- 選ばれている理由: 技術進化(v5へのアップデート)で生成速度や品質が期待され、ローカル環境での利用を望む声が多い。画像生成の文脈で影の表現(horrible and scary shadow)に関する理解度が低い点も指摘。
5. PlumMix(1.2)
- 関連投稿: 845。
- 抽出内容と理由:
- I2Vの素材モデルとして使用。絵師プロンプトなしで使え、プロンプトによっては暗い絵になる癖が強いが、ネガティブプロンプトで低減可能。動画編集との組み合わせで理想のパイズリ&顔射生成に成功。
- 選ばれている理由: 癖が強いが調整可能で、特定の生成(例: 動画素材)に適している。メタデータを参照して使える点が便利。
6. その他のモデル関連(LoRAや一般的な言及)
- 関連投稿: 682(正座と割座のLoRA), 743(Mita-MiSide-IL-v1-07.safetensors LoRA), 821(SD1.5), 844(noob系v-pred)。
- 正座と割座のLoRA: hetero/yuri対応で、座る/座られるシチュエーションに特化。ネガティブプロンプト必須で漏れ注意。ダブルミーニングのプロンプト参考あり。
- Mita-MiSide-IL-v1-07.safetensors LoRA: 公式サンプルでmita生成に使用。特定のキャラ出力に適したLoRA。
- SD1.5: VRAM6-8GBで甘えられた時代が懐かしいという回顧。現在の画像生成ならVRAM12GBで十分だが、次世代モデル(除外リスト外のもの)で変わるかも。
- noob系v-pred: 0.1で作ったLoRAが普通に使えるが、色味がおかしくなる場合あり。
- 選ばれている理由: これらは特定のシチュエーションやキャラ生成に特化しており、調整のしやすさや互換性(LoRAの再利用)が理由。全体として、タグベースのキャラ出力やLoRAの柔軟性が評価されている。
抽出の補足
- ログ全体で、除外モデル(例: Wan, Qwen, リアス, Noobai)の言及が多かったため、それらを厳密に除外。関連ツール(例: ComfyUI, A1111, Tiledアプスケ)はモデル本体でない限り抽出対象外とした。
- 理由の抽出重点: 選ばれている理由として「タグだけでキャラが出る便利さ」「データセットの新しさ」「高品質比較」「癖の調整可能性」などが目立った。
- 抽出件数が少ないのは、ログの多くが除外モデル(Wan/Qwen中心)の話題だったため。もし追加の文脈が必要なら、 уточните。