以下に、与えられたログから指定された生成AIの「モデル」に関する話題をすべて抽出し、該当する部分を整理してまとめます。対象となるモデルは以下の通りです:
- NovelAI v4 もしくは v3 (NAI)
- gemini (gemini 2.0 flash exp, imagen)
- KLING AI (kling)
- animagine xl 4.0 (魔人, anim4gine)
- Pony
- illustrious 0.1, 1.0, 1.1, 2, 3, 3.5vpred (イラストリアス, リアス, ill)
- Noobai
抽出結果
NovelAI v4 もしくは v3 (NAI)
- 89: 「NAI4.5非公開テストはじまってるんか どうなるやろなぁ」
- NovelAIのバージョン4.5に関する話題。非公開テストが始まっているという情報と、今後の展開への期待や懸念が述べられています。
gemini (gemini 2.0 flash exp, imagen)
KLING AI (kling)
animagine xl 4.0 (魔人, anim4gine)
- 206: 「ただワイがloraで使ったのはXL出たてのアニマジンでたころ1年以上昔の話やけど」
- animagine XLに関する言及。過去にLoRA作成時に使用した経験が語られており、1年以上前の話であることが記載されています。
Pony
illustrious 0.1, 1.0, 1.1, 2, 3, 3.5vpred (イラストリアス, リアス, ill)
- 109: 「逆光になるプロンプトのsunlight, sidelighting, backlightingをネガに入れると抑えれるけどワイが普段使ってないイラストリアスのモデルで効くかは知らん」
- イラストリアスのモデルに関する言及。逆光を抑えるプロンプトの効果について触れていますが、自身が普段使っていないモデルであるため効果の確実性は不明とされています。
- 114: 「lillyMix更新したで これもIL2.0ベースで自然言語推奨&ネガポジタグいらずや」
- IL2.0(イラストリアス2.0と推測される)ベースの「lillyMix」というモデルの更新が報告されています。自然言語推奨でネガティブ・ポジティブタグが不要である点が特徴として挙げられています。
- 163: 「リアス系は覚えが良いのか、ちょっとdoodleやworst qualityなものを混ぜるとそれが悪さする 例えばスクショと直撮りを混ぜると直撮りのノイズも覚えてしまうことがある」
- リアス(イラストリアスと推測される)系のモデルに関する話題。学習データの質についての影響が述べられており、悪い品質のデータを混ぜるとその影響が出ることが指摘されています。
- 166: 「AnyIllustrious-XL(for LoRA training)使ったから思いっきりリアス系だわやっちまったぜ 確かに以前五枚くらいで高画質のやつで作ったのは出来が良かった」
- AnyIllustrious-XL(リアス系と推測される)を使用したLoRAトレーニングに関する話題。過去に高画質データで作成した際の成果が良かったことが述べられています。
Noobai
- 139: 「イラスト系は何かnoob系使ってるんやが何か良さそうなモデルとか出た?」
- Noob系(Noobaiと推測される)を使用しているユーザーからの言及。新たな良いモデルの情報がないか尋ねています。
総括
ログ内で言及された対象モデルに関する話題を上記の通り抽出しました。最も多く言及されているのは「illustrious(イラストリアス、リアス)」系で、複数のバージョンや派生モデルに関する具体的な使用例や特徴が語られています。次に「NovelAI」や「animagine XL」、「Noobai」に関する言及が見られましたが、「gemini」「KLING AI」「Pony」については該当する話題が見つかりませんでした。
もしさらに詳細な分析や特定のモデルに絞った深掘りが必要であれば、ぜひご指示ください。以下に、与えられたログから指定された生成AIの「モデル」に関する話題をすべて抽出し、該当する部分を整理してまとめます。抽出対象は以下のモデルです:FLUX, SD3.5, SD1.5, CogView4, HiDream, Wan2.1 (wan), HunyuanVideo (Hunyuan), FramePack, UniAnimate。
抽出結果
FLUX
- 113: リアル系でSDXLが元絵の場合はFLUXで顔の修正をかけることが多いが、キャラの怪げな瞳が出ないため結局SDXLを元絵のまま動かしたという内容。
SD3.5
SD1.5
CogView4
HiDream
- 153: HiDreamについて、下を脱いでくれるモデルが出てきたという話題。ガチエロはまだだが、diffusion-pipeで学習できるようになったため今後に期待という内容。また、pytorch 2.7に上げた際の生成速度に関する言及(ただし後に勘違いと訂正)。
Wan2.1 (wan)
- 47: FramePackかと思ったが、実際はwanであるというやり取り。
- 57: wanであると明言し、ここのニキ産のpiston LoRAを使用して出力したと記載。
- 64: wanでの出力について、長辺1280のサイズやアプスケの有無に関する質問。
- 79: wanでのアプスケやポン出しに関する話題。720pポン出しならキレイに出るが時間がかかるという内容。
- 86: FramePack叡智版がHunyuan Videoに戻しただけであれば、Wan2.1で良いという意見。
- 87: Wan2.1のcontrolが最後まで適用されない仕様についての質問。
- 94: 上記87の自己解決。control_videoのフレーム数が原因だったと記載。
- 96: easy wanで現状満足しているが、容量が大きすぎて他のものを試す余裕がないという内容。
- 97: ピストンLoRAが有能で、Wanでのセックス動画の質が向上したという意見。
- 99: Wanの限界として動画で目が崩れる問題を指摘。FramePackは崩れづらいがエロに弱いと比較。
- 129: Wanは荒ぶりすぎ、FramePackは動かなすぎで中間が欲しいという意見。
- 130: LoRAつきのFramePackがスタンダードになる可能性を指摘しつつ、思いっきり動かす場合はWanが適しているとする。
- 141: EasyWanVideoでWanを試すことを提案。
- 142: Wanの静止画学習がVRAM16GBで可能という報告と、ベースモデルの容量(30GB程度)に関する質問。
- 145: Wan2.1+LoRAで作った動画の続きを別のモデルで生成した場合の引き継ぎ可能性について質問。
- 146: FramePackで満足できない場合にWanを使うと良いという意見。低解像度画像の再利用が素晴らしいとする。
- 155: Wan2.1への静止画学習がVRAM16GBで70分程度かかると報告。効果は初回学習ではイマイチと記載。
- 164: Wanの静止画学習とは何か、絵の破綻がなくなるのかという質問。
- 171: Wanの静止画学習は画風のブレ軽減を目的とした実験であると説明。VRAM24GBは不要と記載。
- 175: Wanのstyle LoRA作成を試みているが成功していないという内容。動画学習もVRAMに合わせた設定で16GBで可能と記載。
- 232: FramePackがWanを凌駕する可能性を指摘。生成時間の問題もガチャ回数の減少でチャラになるとする。
- 233: FramePackの論文でBase ModelとしてWanとHunyuanの両方で比較していると記載。Wan版が出れば最強という意見。
HunyuanVideo (Hunyuan)
- 86: FramePack叡智版がオリジナル版の強みを排除し、ただのHunyuan Videoに戻しただけという批判。
- 224: HunyuanやWan2.1の推論でXformersが有効か疑問を投げかける内容。
- 233: FramePackの論文でBase ModelとしてWanとHunyuanの両方で比較しているという言及。
FramePack
- 47: 出力画像がFramePackかと思ったが、実際はwanであるというやり取り。
- 86: FramePack叡智版がオリジナル版の強みを排除し、ただのHunyuan Videoに戻しただけという批判。Wan2.1で良いという意見。
- 99: Wanの限界として動画で目が崩れる問題を指摘しつつ、FramePackは崩れづらいがエロに弱いと比較。
- 110: FramePackのセクション数や動きの速さ調整に関する質問。
- 129: Wanは荒ぶりすぎ、FramePackは動かなすぎで中間が欲しいという意見。
- 130: LoRAつきのFramePackが本格的に回り始めたらスタンダードになるという意見。生成速度の問題もあるとする。
- 133: FramePackはなめらかに動くがそれだけだという評価。
- 140: FramePackは動画未経験者でも興味を持たせ、導入させたが、理想のものが簡単に作れる画像に比べるとまだ早いと感じるという内容。
- 146: FramePackで満足できない場合にWanを使うと良いという意見。
- 158: FramePackをダウンロードしなかったことを後悔し、eichiに興味が出てダウンロード中という内容。
- 198: FramePackのアンインストール方法(フォルダ削除で良いか)についての質問。
- 220: FramePackでxformersが認識されない問題についての質問。
- 229: FramePackでの馬姦腹ボコLoRAの学習成果を共有。VRAM不足や学習設定の問題(fp8_baseとfp8_scaledを外した際の不具合)に言及。
- 232: FramePackがWanを凌駕する可能性を指摘。LoRAの充実が鍵とし、生成時間の長さもガチャ回数の減少でチャラになるとする。
- 233: FramePackの論文でBase ModelとしてWanとHunyuanの両方で比較していると記載。Wan版が出れば最強という意見。
UniAnimate
まとめ
- FLUX: 顔修正に使われるが、特定の課題(怪げな瞳が出ない)があるため限界が指摘されている。
- HiDream: 新しいモデルや学習方法の進展に期待が寄せられており、生成速度に関する話題も出ている。
- Wan2.1 (wan): 静止画学習や動画生成に関する多くの議論があり、画風のブレ軽減やLoRAとの組み合わせによる質の向上が話題。生成時の荒ぶりや容量の問題も指摘されている。
- HunyuanVideo (Hunyuan): FramePackとの関係性や推論時の技術的な議論が中心。
- FramePack: 動画生成の滑らかさやLoRAとの連携による可能性が評価される一方、エロに弱い、生成時間が長い、設定の難しさなどの課題が多数議論されている。
以上が、指定されたモデルに関する話題の抽出結果です。もし特定のモデルについてさらに深掘りした分析や追加の質問があればお知らせください。