以下は、提供された5chログ(ポスト648から849まで)から、指定された生成AIのモデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する話題をすべて抽出したものです。抽出の基準は以下の通りです:
- 各モデル名(または指定された別称/略称)が明示的に言及されている部分を対象としました。
- 関連する文脈(例: 使い方、比較、問題点、理由など)を可能な限り含めて抽出。
- 特に「そのモデルが選ばれている理由」が明記されている場合、それを強調して抽出(理由が明示されていない場合も、周辺の文脈から推測可能なものは注記)。
- ログ内で言及のないモデル(Pony, Noobai, FLUX)については、「言及なし」と記載。
- 抽出はログのポスト番号順に整理し、重複を避けつつ完全性を保つ。
NovelAI (NAI)
- 655: “気の迷いでまたnovelAIに課金してしもた やっぱ結構楽しいで”
(NovelAIに課金した話。選ばれている理由: 楽しいから、という個人的な感想。)
Pony
illustrious(イラストリアス, リアス,ill,IL)
- 699: “SDXLのillustrious系でキャラの服装やらアクセサリーやら髪型やらを固定したくて、ガチャで理想の絵を10パターンくらい出す→で増殖→lora作るみたいな手順でやろうとしとるんやけど、いまlora作るんならどれが第一選択なんやろか”
(Illustrious系を使ってキャラクターの固定を試みる話。選ばれている理由: SDXLベースで服装/アクセサリー/髪型を固定しやすいため。)
- 710: “ワークフロー入りだから中身見てもらえれば分かると思うが(整備もしてないんでグチャっててスマンが) 新規のwan2.2LoRAがある訳ではないんよね イラストリアス用の2コマ置き去りディルドLoRAを使用してstartend画像用意して後はプロンプトよ そっちのLoRAを公開していないといえばそうやね…”
(Illustrious用LoRAを使って動画生成の準備をする話。選ばれている理由: 特定のシチュエーション(2コマ置き去りディルド)のLoRAとして適しているため。)
- 848: “でもリアス1.0以降のマージモデルでも実用的な解像度は限られてるからな イラストならVRAM12GBでまず足りるやろ”
(リアス(Illustrious)1.0以降のマージモデルについて、実用解像度とVRAMの話。選ばれている理由: イラスト生成で実用性が高く、VRAM消費が少ないため。)
Noobai
FLUX
Wan
- 650: “easywanからcomfyui動かしてたけどそろそろ別に最新版の環境作った方がええんかな Stability MatrixとかPortableとかどれがええんやろ しかもそこからsage attentionとか赤ちゃん殺しの要素色々あるみたいやし”
(EasyWanからComfyUIを動かす話。選ばれている理由: 高速化要素(Sage Attentionなど)があるため、最新環境構築を検討。)
- 653: “»619 これ wan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensors wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors”
(Wan2.2の特定LoRAファイルを推奨。選ばれている理由: I2V生成向けの高速化LoRAとして有効。)
- 654: “高速化も複数あるからどれがいいのかもうわからんぞこれ Wan_2_2_I2V_A14B_HIGH_lightx2v_MoE_distill_lora_rank_64_bf16.safetensorsつかってるけど”
(Wan2.2の高速化LoRAを使っている話。選ばれている理由: 高速化オプションが多い中でこれを選択中だが、どれが最適か迷っている。)
- 658: “Wan2.2やQwen2509やる分にはEasyWan22とかSimpleComfyUIでええよ 9月までのZuntanアプデで対応済みやから現時点では問題ない(むしろWan2.2はEasyWan22の方が高速) 無理してアップデートする必要はないで Zuntanが復活したらやってくれるんやから ここで色々聞いて不安になってPytorchとかアップデートする人いるけどやらんでええよ”
(Wan2.2をEasyWan22やSimpleComfyUIで使う話。選ばれている理由: EasyWan22の方が高速で、アップデート不要で安定しているため。)
- 659: “»651 なんかどっちかで入れてる話をよく見るイメージやったんや あるいはワイみたいにzuntanニキのeasyシリーズからそのまま使ってたり”
(ZuntanのEasyシリーズ(EasyWan含む)を使っている話。選ばれている理由: 簡単に入手・使用可能で、継続利用しやすい。)
- 674: “QwenImageEditとQwenImage Wan2.2のT2VとI2V それぞれの用途向けに調整してるだけで「しかできない」わけちゃうで ImageEditでT2IもT2VモデルでI2Vもできる”
(Wan2.2のT2V/I2Vの柔軟性を説明。選ばれている理由: T2V/I2Vの用途に調整されており、多用途に使えるため。)
- 676: “QwenEditみたいに動画も簡単な命令でEditできたら最高やな Wan2.1ならVACEあるけどインペイントしたりちょっと手間やからな”
(Wan2.1のVACEを比較。選ばれている理由: 動画編集が可能だが、手間がかかる点がデメリット。)
- 696: “Wan2.2でパンツが写ってない画像を元にしてスカートめくってパンツが出る流れで パンツがアメリカンの変なやつしか出てこない LoRAを探したけどアメリカンなやつしかない ちょっと皺の寄ったリボン付きの白パンティを出せるのはいつの日になるのか”
(Wan2.2で特定シチュエーションの生成問題。選ばれている理由: 動画生成(スカートめくり)で使っているが、パンツ表現に制限がある。)
- 700: “»696 Smooth mixだとちゃんとパンティーらしいパンティーがでるよ 面積が小さめなのとリボンのところにハートマーク出しがちというクセがあるけど”
(Smooth mix(Wan関連?)を推奨。選ばれている理由: Wan2.2の問題を解決するパンティー表現が可能。)
- 709: “»703 そういうちゃんとした演出込みでのアクションシーンなんかはGrokちゃん性能全然足らんからな 有料動画クラウドかWan2.2の高速化なし環境が選択肢になってくる”
(Wan2.2をアクションシーン生成の選択肢として挙げる。選ばれている理由: Grokより性能が高く、高速化なしでも対応可能。)
- 710: “新規のwan2.2LoRAがある訳ではないんよね”
(Wan2.2 LoRAの新規性について。選ばれている理由: 既存LoRAをベースに動画生成で活用。)
- 791: “Wan2.5のローカル版がFP4のSageAttention3のcuda13.0の組み合わせが最速で安定して動作するって状況にならないと 新しく環境構築し直すメリットが殆どない気がする”
(Wan2.5のローカル版を議論。選ばれている理由: 最速・安定動作の組み合わせ(FP4 + SageAttention3 + CUDA13.0)が期待されるため。)
- 807: “これ元絵はQwen Image Edit 2509をt2iとして使ったけどQwen Imageやなくてt2iも普通にできるからなぁ t2iは専用モデル使わなくても2509だけで事足りてる感がある それでQwen Imageは落としてもないのでどれだけ差があるもか分かってないけど Wanで動画にする時にツインテール入れ忘れてポニーテールになったりするけど 祭りの会場のステージで手持ち撮影してきた感じの動画”
(Wanで動画生成。選ばれている理由: Qwenとの組み合わせでt2i動画生成が可能で、柔軟性が高い。)
- 839: “»654 こんなのもあるが Wan_2_2_I2V_A14B_HIGH_lightx2v_4step_lora_v1030_rank_64_bf16.safetensors”
(Wan2.2の高速化LoRAを追加推奨。選ばれている理由: 高速化LoRAのバリエーションとして有効。)
Qwen
- 657: “qwen-imageってもしかしてEditじゃないほうは登場時からほぼ進化しとらんの? Editのほうは2509とかAioとか色々出てるけど普通のバージョンはそんな話ほとんど聞かんのやけど”
(Qwen-Imageの進化について。選ばれている理由: Edit版(2509/AIO)が進化しており、通常版より選ばれやすい。)
- 658: “Wan2.2やQwen2509やる分にはEasyWan22とかSimpleComfyUIでええよ”
(Qwen2509をEasyWan22などで使う話。選ばれている理由: 高速で問題なく動作するため。)
- 664: “»657 edit2509だけで生成もできちゃうからね”
(Qwen Edit2509で生成可能。選ばれている理由: 生成が単独で可能で便利。)
- 665: “»664 それってマジなん? 別のところでその話聞いて意気揚々とQwenEditAioをQwen用t2i生成のワークフローにセットして試したんやけどグチャグチャになったで”
(Qwen Edit AIOでt2i生成を試す話。選ばれている理由: t2i生成向けに期待されるが、結果がグチャグチャになる問題あり。)
- 666: “アウロリニキも2509でLoRA作ってるねんな”
(Qwen2509でLoRA作成。選ばれている理由: LoRA作成に適している。)
- 667: “Qwenは2509しか使っとらんけQwenEditAioって何ぞ”
(Qwen2509のみ使用。選ばれている理由: 2509がメインで十分。AIOはエッチLoRA/高速化LoRA混ぜたもの。)
- 668: “»665 TextEncodeQwenImageEditPlusに入力するimage1-3を無くして KSamplerのlatent_imageに空レイテント(EmptySD3LatentImageノード等)をつなぐだけ”
(Qwen Image Editの使い方説明。選ばれている理由: t2i生成のワークフローに適応可能。)
- 669: “QwenEditAllinOneはQweneditのモデルとテキストエンコーダとVAEを1つのチェックポイントにしたもの 目的は軽量化だからQwenEdit2509が動いてるなら必要になるケースは少ないと思う”
(Qwen Edit AIOの説明。選ばれている理由: 軽量化目的だが、2509が動くなら不要。)
- 670: “»667 エッチLoRAや高速化LoRA混ぜたモデル”
(Qwen Edit AIOの詳細。選ばれている理由: エッチ/高速化LoRAを混ぜて多機能。)
- 671: “AIOはその名の通りオールインワンやからモデルローダーを変えなあかん そりゃぐちゃぐちゃになるで 最初はAIOのサイトにあるワークフローでやるのが基本やで あと個人がアレンジしたやつやからQwen公式のものではない”
(Qwen AIOの使い方と注意点。選ばれている理由: オールインワンで便利だが、公式でないためワークフロー変更が必要。)
- 673: “»670 過去スレ辿って見つけたで 結構更新多いからしばらく様子見るわ”
(Qwen AIOの更新頻度。選ばれている理由: 更新が多いため、様子見推奨。)
- 674: “QwenImageEditとQwenImage Wan2.2のT2VとI2V それぞれの用途向けに調整してるだけで「しかできない」わけちゃうで”
(Qwen Image Edit/Imageの柔軟性。選ばれている理由: T2I/T2V生成に調整されており、多用途。)
- 675: “2509でもt2iはできるが 三次元なら問題はないんやけどデフォでは二次元が出にくい 二次元を出すにはプロンプトやネガに色々盛る必要がある(ネガ必要やからcfgを上げる必要あり) 二次元系のLoRAを使ってもいけるかもしれん t2iの場合は二次元用とかセミリアル用のプリセット作っておくといいかも まあ基本i2iしか使わんのやけどね”
(Qwen2509のt2i生成。選ばれている理由: 三次元向きだが、二次元もプロンプト調整で可能。主にi2iで使う。)
- 677: “そういえばqwenedit2510で無かったな?”
(Qwen Edit 2510の有無。選ばれている理由: バージョン更新を期待。)
- 678: “»668 はえーそうやって使うんやな… 教えてくれてありがとう ただそのやり方でやったんやけどなんかノイズがすごい気がするんよな 一応形にはなるんやけど…やり方が悪いんやろか”
(Qwen Editの使い方でノイズ問題。選ばれている理由: 形状は出るがノイズが多いため調整が必要。)
- 800: “Qwen image editのNSFWはAIOっての使えばいいの? gguf版のワークフローないやろか?”
(Qwen Image EditのNSFWでAIO使用。選ばれている理由: NSFW生成向けにAIOが適する。GGUF版ワークフローを求める。)
- 807: “これ元絵はQwen Image Edit 2509をt2iとして使ったけどQwen Imageやなくてt2iも普通にできるからなぁ t2iは専用モデル使わなくても2509だけで事足りてる感がある”
(Qwen Image Edit 2509をt2iで使用。選ばれている理由: 専用モデル不要でt2i生成が可能で十分。)
- 849: “ComufyManager更新したらComfyUI_QwenVLとかいうのインストールされたがなんぞこれ”
(ComfyUI_QwenVLのインストール。選ばれている理由: マネージャー更新で自動インストールされたもの(詳細不明)。)
以下は、提供された5chログから、生成AIの「モデル」に関する話題を抽出したものです。抽出の基準は以下の通りです:
- 生成AIのモデル(例: Grok, ChatGPT, Stable Diffusionなど)に関する言及を中心に抽出。
- 指示された除外モデル(NovelAI/NAI, Pony, illustrious/イラストリアス/リアス/ill/IL, Noobai, FLUX, Wan, Qwen)とツール(例: ComfyUI, Forge, TensorRTなど)は除外。ログの大部分がこれらに関するため、抽出量は限定的です。
- 特に、そのモデルが選ばれている理由(例: 得意分野、利便性、問題点など)が明示されている場合に重点を置いて抽出。
- ログの投稿番号を参考に、関連する話題をまとめ、簡潔に記述。重複を避け、関連性の高いものを優先。
1. Grok(xAIのモデル)
- 主な話題: 動画生成、特にエロティックなシーン(おっぱいの動き、フェチ動画、実写風生成)で活用されており、プロンプトの工夫で左右別々の動きを実現する方法が議論されている。規制が緩く、乳首描写が可能で、実写風が得意。i2v(Image-to-Video)生成やアスペクト比変更のテクニックも共有。
- 選ばれている理由:
- プロンプトが日本語自然文で可能で、カルチャーショック級の使いやすさ(705)。
- 実写風動画が得意で、二次元生成しかやらない人を「見くびってる」との意見あり(812, 820)。規制後も三次動画(乳首OK)が出せ、課金検討の価値あり(801, 802)。
- フェチ動画(例: スカートめくり、胸ツンツン)作成に無問題で、手軽に微エロを実現(794, 806, 813)。パーツ指定(右乳/左乳)で正確な動きが出やすい(790)。
- アクションシーンでは性能不足だが、簡単な動画生成に向く(709)。
- 関連投稿: 662, 681, 688, 691, 733, 743, 790, 793, 794, 801, 802, 806, 812, 813, 815, 820, 826。
2. ChatGPT(OpenAIのモデル)
- 主な話題: ハルシネーション(幻覚、誤った情報生成)の問題が悪化しており、対策の必要性や使い方の工夫が議論。エラー解決やプロンプトの精度向上で活用。
- 選ばれている理由:
- ハルシネーションが酷く、専門的な質問で悪化しやすいが、「事実のみを挙げて」などのプロンプトで精度を上げる工夫が必要(736, 739, 741)。「わからない場合は創造しないで」という方針が正解との意見(781, 764)。
- エラー解決(例: TensorRTのバージョン対応)でチャッピーに聞くが、根拠をネチネチ確認する必要あり。学習されていないことを聞くとでっち上げやすい(727, 732, 734, 767, 805)。
- Plus版を使い続けているが、マジクソとの不満あり(736)。
- 関連投稿: 736, 738, 739, 740, 741, 767, 781, 805。
3. Stable Diffusion(一般的なモデル)
- 主な話題: 乳首ピアスの絵柄固定が難しい点が指摘。SDXL系(illustrious除外のため関連部分除く)で服装/アクセサリーの固定をLoRAで試す方法。
- 選ばれている理由:
- 絵柄がコロコロ変わるのが嫌で、固定方法を探すが難しい(656)。
- SDXLでガチャ生成→LoRA作成の手順でキャラ固定を目指すが、第一選択のLoRAが不明(699)。
- 関連投稿: 656, 699。
4. Obsession(モデル名と思われる)
- 主な話題: 特定の元絵のモデルとして言及。
- 選ばれている理由:
- 絵師タグありきで、特定の絵柄(例: もちもち風)生成に適する(712, 713, 720)。
- 関連投稿: 712, 713, 720。
5. Smooth Mix(モデル名と思われる)
- 主な話題: Wan関連の動画生成でパンツ描写の改善に使用。
- 選ばれている理由:
- パンティーらしい自然な描写(面積小さめ、リボンにハートマークのクセあり)が出やすく、変なパンツを避けられる(696, 700)。
- 関連投稿: 700。
6. Eazyreforge(モデル/高速化ツールと思われる)
- 主な話題: RTX3060環境で高速化LoRAを使用し、生成サイズの見直しで奇形を直す試み。
- 選ばれている理由:
- RTX3060のVRAM制限下で高速化のため使用。お腹周りの奇形が直らない問題の原因候補(701)。
- 関連投稿: 701。
抽出の補足
- ログの大部分が除外モデル(Wan, Qwenなど)やツール(ComfyUI, TensorRT, PyTorchなど)の議論で占められているため、抽出は上記に限定されます。
- 理由が明示されていない一般的な言及(例: GGUF形式の量子化モデル, 652)は除外。
- ハードウェア(RTXシリーズ)や一般AI用語(ハルシネーション, ポチョムキン理解)はモデル本体でないため抽出せず。
- 抽出内容はログの文脈を尊重し、客観的にまとめました。追加のログがあれば、さらに分析可能です。