以下は、提供された5chログ(メッセージ449から650まで)から、指定された生成AIの「モデル」に関する話題をすべて抽出したものです。抽出の基準は以下の通りです:
- 指定モデル:NovelAI v4もしくはv3 (NAI), Pony, illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill), Noobai, FLUX, HiDream, Wan 2.1,2.2 (wan), FramePack
- ログ内でこれらのモデルに直接言及されている部分を抽出。
- 特に、そのモデルが選ばれている理由(性能、利便性、流行など)が明示的に述べられている場合、それを強調して抽出。
- 抽出はログのメッセージ番号を基に整理し、重複や文脈のつながりを考慮してまとめています。指定モデルに該当しない話題(例: Qwen, SDXLなど)は除外。
- ログ内で言及がなかったモデル(Pony, illustrious, Noobai, HiDream)は「言及なし」と明記。
抽出結果をモデルごとにまとめます。全体として、Wan 2.1/2.2に関する話題が最も多く、動画生成の文脈で頻出しています。
NovelAI v4もしくはv3 (NAI)
- 450: SDXLへの移行が進んだのはNAIv3登場でSD1.5が陳腐化したのもあったし そういう要求スペックや性能や優良マージモデルの有無だけでは流行るか分からんね
- 選ばれている理由: NAIv3の登場によりSD1.5が陳腐化したため、SDXLへの移行が進んだ(NAIv3の性能向上や優位性がSD1.5の陳腐化を促した)。
- 579: まぁNAIオンリーとかpixaiとかwebサービス勢も結構おるみたいやし色々や
- 選ばれている理由: 明示なし(NAIオンリーのユーザーが一定数いるという言及のみ。webサービスとしての利便性が暗黙的に示唆)。
(その他の言及なし。NovelAI v4についてはログ内で触れられていません。)
Pony
illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス,ill)
Noobai
FLUX
- 558: fluxはぎりぎりあった気もしたがメンテはcomfy側ばかりだし、他のsdxlモデル以外も基本的にa1111系列で動かせるように対応するひとおらんでしょ
- 選ばれている理由: 明示なし(ComfyUI側でのメンテナンスが主で、A1111系列での対応が少ないため、ComfyUI環境で選ばれやすい)。
- 571: fluxはforgeが対応してるがイリヤ氏のアプデ速度は早くないからな / fluxとqwenの間に色々何かあったような気がするけどqwen出現でその間にあったやつ死んじゃった感あるわ
- 選ばれている理由: Forgeが対応しているが、アップデート速度が遅いため、他のモデル(qwen)の登場で相対的に陳腐化し、選ばれにくくなった可能性。
(HiDreamについてはログ内で言及なし。)
Wan 2.1,2.2 (wan)
Wanに関する言及が非常に多く、主に動画生成の性能や設定、生成時間、LoRAの使用について議論されています。2.2が特に頻出で、2.1からの移行理由も触れられています。
- 453: wanの流行で自然言語でエロ出せる事の威力は実感できたから期待はしとる 時間がかかっても最悪低解像度で出してrefinerって手も全然有るし まあ、ここから結局誰もエロ出せるモデル作りませんでしたとか、Loraの学習が一般的には無理ですで忘れられてく可能性は全然有るけどね…
- 選ばれている理由: 自然言語でエロ画像が出せる威力を実感したため流行(エロ生成の利便性)。LoRA学習の難易度が高い可能性があるが、低解像度+Refinerで対応可能。
- 485: WAN22に手を出してまだ2日くらいなんやが、1024pxとか高解像度で生成したほうが破綻もなく良い感じの動きを出してくれる気がするんやけど気のせいかね?640pxでガチャし続けても中々良いの出ないし選別ががが
- 選ばれている理由: 高解像度(1024px)で生成すると破綻が少なく良い動きが出るため(低解像度ではガチャが必要で非効率)。
- 486: 1024pxでガチャってPC悲鳴あげてない?
- 488: コイル鳴きはするわ でも、640pxで16とか20生成しても良いのなかったりするけど、1024とか1152とかだと2~4枚でええやんって奴でるんや…まあ一つの生成時間が250s~390sとかになるんだけども
- 選ばれている理由: 高解像度の方が良い結果が出やすく、生成枚数が少なく済む(時間はかかるが効率的)。
- 491: 気のせいやないで露骨に変わる アップスケールにも限度があるしな ついでに高速化loraも使わずsteps増やした方がええで めっちゃ時間かかるけど
- 選ばれている理由: 高解像度でstepsを増やすと良い結果(高速化LoRAなしで品質向上)。
- 494: stepsってどこに書いてあるんかね?まだよくわかってないのよね
- 495: wan2.2ってちゃんと指示してやらないと画像の初期状態に戻ろうとするんやなぁ
- 496: 挿入しながらのスパンキングを2.2でも学習してみたけどこっちも精度全然やね 学習は難しいぜ
- 502: Workflow\Easy\Deprecated\00_I2V(ImageToVideo).json 使ってmodel選択ノードのすぐ上にあるサンプリングパラメーターてとこのstepsを両方10ぐらいにするとええで
- 507: すまんWan22でComfyUi.batとComfyUi_Activate.batとComfyUi_NoArgs.batって何が違うんや? いつもComfyUi.batで起動しとるんやが他は高速化とか軽量化のやつなんか?
- 516: 新しいの来るたびにcomfyしかないからそれ以外が作られん限り徐々にa111系はユーザー減っていくだけでしょ(文脈的にWanを含む新しいモデル)
- 533: WAn22でようやく後背位で激しくHしてる動画を生成にこぎつけたけど、思ったよりしっかり良い感じに動いてくれて感動だわ…モザイクつけてないからまだ上げれないけども
- 選ばれている理由: 動きがしっかりしていて良い感じ(動画生成の品質)。
- 537: wanはhighとlowの二種類lora必要だからかもうlora選択の視認性が終わり始めてる。この辺comfyきついわね
- 570: 俺の場合 4070TIS メモリ64GB で WAN2.2 i2v 14B Q8 にlowだけlightx2vかませてSage attention通して720x1280 16フレーム 長さ81 ステップ12 最後RIFE VFIでフレーム補完して10秒動画作るのに13分
- 578: RTX3080(12GB)、メモリ128GB Wan2.2 i2v/t2v Q8 High -> SageAttention -> Model Patch Torch Settings -> WanVideoNAG 6ステップ Low -> SageAttention -> Model Patch Torch Settings -> Lightx2v -> WanVideoNAG 6ステップ 480x720 16フレーム 長さ81 これで約67分
- 582: 動画はFramePackメインで使ってたけど2.2出てから移行して消したわ、まあeasywan2.1ごとだけど
- 選ばれている理由: 2.2の登場で移行(2.1からのアップデートによる性能向上)。
- 587: Wan22ちゃん液体描写弱いんか? おしっことか潮吹きとか紐みたいにびよーんって跳ねるだけで吹き出してくれんな
- 選ばれている理由: 明示なし(液体描写の弱さを指摘、LoRAで補う可能性)。
- 595: それは2.1でも普通に弱かったと思うけど、一部LoRAで頑張ってた感じやと思う デフォなら多分2.2のがええと思うで でもやっぱLoRAがないとなかなか
- 選ばれている理由: 2.2の方がデフォルトで液体描写が良い(2.1より改善、LoRA推奨)。
- 620: うーんradeonでWAN2.2の構築いろいろ進めたけど高速化のワークフローいくつかつこたけど画像のエラーが毎回出て解決出来ずお手上げや
- 644: よくわからんけど話題のqwenはForgeとかこれまで使ってたUIで使えなくてwanと同じでComfyで使う感じなんかえ
- 選ばれている理由: ComfyUIで使うのが主流(UIの対応状況による)。
(その他、生成時間や設定の詳細な議論が多いが、選ばれている理由としては自然言語対応、エロ生成の威力、高解像度での品質、2.1からの進化が主。)
FramePack
- 582: 動画はFramePackメインで使ってたけど2.2出てから移行して消したわ、まあeasywan2.1ごとだけど
- 選ばれている理由: 以前はメインで使っていたが、Wan 2.2の登場で移行(Wan 2.2の性能向上により陳腐化)。
これらの抽出はログの文脈を崩さないよう努めましたが、会話の流れで重なる部分はまとめています。追加のログや詳細が必要であれば、さらなる分析をお知らせください。
—以下は、提供された5chログ(449~650)から、生成AIの「モデル」に関する話題を抽出したものです。抽出の基準は以下の通りです:
- 生成AIのモデル(またはモデル関連の具体的な話題)に焦点を当て、除外モデル一覧(NovelAI v4/v3 (NAI), Pony, illustrious各種 (イラストリアス, リアス, ill), Noobai, FLUX, HiDream, Wan 2.1/2.2 (wan), FramePack)に該当するものは除外。
- 除外モデルが登場しても、そのモデル自体を主眼とした話題は抽出せず、他のモデルとの関連で言及される場合のみ必要最小限で触れる(例: 比較)。
- 特にそのモデルが選ばれている理由(性能、使いやすさ、学習適性など)が明記されている場合、それを抽出して強調。
- ログ全体を精査し、重複を避けつつ、関連するレス番号を付記してまとめ。話題が散在している場合、テーマごとに分類。
- 抽出対象は純粋なモデル関連に限定(UIツールやワークフロー、プロンプトの話題はモデルに直結する場合のみ含む)。
1. SDXL関連のモデル話題
- SDXLの移行と性能評価: SDXLへの移行が進んだのは、SD1.5が陳腐化したため(NAIv3の影響も言及されるが除外)。要求スペックや性能、優良マージモデルの有無が流行に影響するが、生成AIブームが落ち着いている今は不透明(450)。SDXLは中程度スペックのPCでも試行錯誤可能で、数分で画像生成できる速さが普及の理由(452)。エロ画像生成では背景の狂いや文字の崩れが許容され、複数人制御の自然言語が優れているが、プロンプトが面倒(451)。選ばれている理由: 速さとエロ生成の許容度の高さ(449, 451, 452)。
- SDXLの用途と限界: 自然言語で複雑な絵を1発生成できるレベルなら、数分かかってもOK(458)。動画生成ではSDXL並の速度が必要で、10分待てるが画像生成の速さに慣れているため移行意義が薄い(449)。SDXLしか触っていなかったが、他のモデル登場でComfyUIに移行する動機が出た(541)。
2. SD1.5関連のモデル話題
- SD1.5の陳腐化: NAIv3登場でSD1.5が陳腐化し、SDXL移行が進んだ(450)。選ばれている理由: 過去のスタンダードだったが、現在は性能的に陳腐化(比較対象として)。
3. Qwen関連のモデル話題(Qwen-Image, lightx2vなど)
- Qwenのエロチューンと期待: Qwenのエロチューンは半年先か(457)。QwenにStartEnd画像を作らせるアイデアが面白い。キャラや背景の一貫性が高く、danbooru語より制御が難しいが研究が必要(505)。Qwen lightx2vをマージしたggufモデル(LoRAじゃない方)が登場し、生成時間が大幅短縮(ステップ4で47.63秒、ステップ20で193.62秒)。高速化が魅力で、約10分の1の時間(511, 513)。QWEN-Image LoRAでキャラ学習可能(画像20枚、トリガーワード+フローレンス2自然言語、AI TOOLKIT使用)。クオリティはテストレベルだが、学習適性の高さが確認(629)。3060 Q5_K_Mで25秒以内に生成、日本語プロンプト対応で便利(624)。選ばれている理由: 高速化(ggufマージで時間短縮)、学習のしやすさ(LoRAキャラ学習可能)、自然言語の理解力(複雑な絵の1発生成、StartEnd画像の一貫性)(457, 505, 511, 513, 624, 629, 636)。ただし、LoRA作り直しが気が遠くなる(635)。
- Qwenの対応と比較: Forgeなど既存UIで使えず、ComfyUI中心(644)。FluxとQwenの間に他のモデルがあったが、Qwen出現で死んだ感(571)。
4. LLM関連のモデル話題(GPT-oss, deepseekなど)
- LLMのローカル実行とスペック: メインメモリ(DDR5 64GB~128GB)でVRAM8GBでも120BサイズのLLMが実用レベルで動く設定が可能。GPUがケチなのでこの方向性(464)。GPT-oss-120bがローカルで動かせるのが凄い(473)。LLMをGPU+CPUで高速推論させるMoE(動作モデルが一部のみ)の話で、deepseekやgpt-ossが該当。画像生成での仕組みは不明(497)。CPU計算で25T/s(1秒25文字生成?)の実用レベル(472)。DDR4でも可能だがDDR5より速度が倍近く遅い。今後AIを楽しむにはDDR5 128GBマシンがマスト(468)。Command系LLMで返信40分かかるが、音声(アーマード・コアのエアちゃん声)でスケジュール管理したい(470)。選ばれている理由: ローカル実用性(低VRAM対応、MoEの高速推論)、スペック敷居の低さ(DDR5推奨だがDDR4可)(464, 468, 470, 472, 473, 497)。
5. その他のモデル話題
- 世界樹ニキのモデル: キャラデザのたたき台として有用。女性/男性の情報量バランスが良く、モブ子/中年/老人の表現が極端でない。線数が少ないのでパーツ捉えやすく、自分で描く参考に(479)。選ばれている理由: 情報量バランスの良さと参考しやすさ(特にキャラデザ)。
- WAI14: 絵師LoRA使用でveiny_penisなどがそれっぽくなるが、理想の細さ調整が難しい。LECOやLoRAが必要かも(500)。
- Cats, Sens, Airy: 画風学習でセットし、VRAM消費がCats>Sens>Airy。Sensで基本設定、shadow ONで重い。スケジューラーフリーは変な部分を覚えてイマイチ(499)。EmoSENSは4時間学習で足りず、傾向違いか判断難。学習率高めでリベンジ(633)。
- Fooooocus: 1年くらい前は初心者おすすめだが、言語問題で以降触れていない(573)。学習コストほぼ無しで手軽生成が可能(589)。選ばれている理由: 手軽さと低学習コスト(569, 573, 589)。
- 画風LoRA全般: 学習素材を厳選しても変化が少ない。あくまで「画風」だからか(607)。絵師タグの強度調整が難しく、(toriyama_akira:0.05)でも影響大。プロンプトエディティング([a:b:0.5]や[:絵師タグ:0.5])で調整可能だが沼る。モデルによって効きが変わる(637, 638, 641, 642, 643, 645, 646, 647, 648, 649, 650)。
抽出の補足
- 上記はログから直接関連する部分を抽出し、テーマごとにまとめた。除外モデル(例: Wan, Fluxなど)は頻出するが、抽出対象外とした(例: Wanの生成時間やLoRAは除外)。
- モデルが選ばれている理由として、速さ(SDXL, Qwen)、学習適性(QWEN-Image LoRA)、ローカル実用性(LLM系)が主に挙げられる。
- 全体として、ログはUIツール(ComfyUI, Forgeなど)の議論が多いが、モデルに直結しないものは除外。もし抽出漏れや追加の意図があれば、 уточнитеください。