以下は、与えられたログから指定された生成AIの「モデル」に関する話題を抽出したものです。対象となるモデルは、NovelAI v4/v3 (NAI)、Gemini (Gemini 2.0 flash exp, imagen)、KLING AI (kling)、animagine xl 4.0 (魔人, anim4gine)、Pony、illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス, ill)、Noobai です。
NovelAI v4/v3 (NAI)
- 64番:nai4.5の作成について言及。v4が削除される可能性を懸念し、v4で作ったものが使えなくなることやv4.5が微妙である場合の不満を述べている。
- 66番:v4の進化に言及し、AI画像生成における個人的な課題とともに触れている。
- 70番:NAIv4のリリース時のマイナーチェンジによるプロンプト試行錯誤のやり直しや不満について言及。過去バージョンを残すチェック機能が追加されたことや、ウェブサービスの弱点を指摘。
Gemini (Gemini 2.0 flash exp, imagen)
- 51番:Gemini子RoLAの作成を試みたが、材料集めや画風固定の難しさを述べている。
KLING AI (kling)
animagine xl 4.0 (魔人, anim4gine)
Pony
illustrious 0.1,1.0,1.1,2,3,3.5vpred (イラストリアス, リアス, ill)
- 154番:Illustrious2.0をベースにした高解像度生成での崩れにくさを評価する一方、Noob系に比べてマイナーキャラや最新キャラの特徴を覚えていないジレンマを述べ、danbooruデータの追加学習の可能性に触れる。
- 164番:リアス2.0派生モデルの製作を試みているが、Noob系に比べて優位性が見えないと述べ、1536ポン出しと1024から1.5Hiresの破綻率を比較。
- 188番:illustrious0.1ベースかnoobai_epsベースのモデルを主に使用し、1.1や2.0ベースは何か足りないと感じ、v-predは癖が強いと毛嫌いしている。
- 189番:2.0系で高画質生成後にアプスケすることで細かい部分が綺麗に出ると述べ、最近は2.0系をメインに使用。
- 190番:1.1や2.0の派生モデルで1536(アプスケ無し)生成時に分身しやすくなったことが悩みと述べる。
- 197番:リアス1.1以降で1536×1536生成と1024×1024(アプスケ1.5倍)生成の違いについて質問。
- 204番:197番への回答として、アプスケした方がきれいに見えるが、0.1のLoRA使用時に1536で出すと分裂や破綻が起こると述べる。
Noobai
- 154番:Illustrious2.0と比較し、Noob系はマイナーキャラや最新キャラの細かい特徴を覚 Hawkins (Noobai_epsベース含む) を含むモデルに関する言及あり。
- 164番:リアス2.0派生モデルと比較し、Noob系の方が優位性がある場合があると述べる。
- 188番:noobai_epsベースかillustrious0.1ベースのモデルを主に使用していると述べる。
以上が、指定されたモデルに関するすべての言及の抽出結果です。該当しないモデル(KLING AI, animagine xl 4.0, Pony)については、ログ内に言及がありませんでした。必要であれば、さらに詳細な分析や関連する話題の補足説明も可能ですので、お気軽にお知らせください。以下に、与えられたログから指定された生成AIの「モデル」に関する話題をすべて抽出した結果を示します。抽出対象は「FLUX」「SD3.5」「SD1.5」「CogView4」「HiDream」「Wan2.1 (wan)」「HunyuanVideo (Hunyuan)」「FramePack」「UniAnimate」です。
抽出結果
- Wan2.1 (wan)
- レス137: 「wan2.1でアナル中出し学習 当たり前といえば当たり前やが、15FPSぐらいの素材が多い場合はwanの方が綺麗に作れるような気がするな… 馬姦とアナルハガー注意」
- レス89: 「動きは申し分なくてもどうにもwanの崩れ方で台無しになることが多くて 崩れにくいFramepackが進化してくれるのは本当に喜ばしい」
- レス107: 「そうなんですね…あまり複雑なのはためらってしまいそうです ありがとうざいました1」(EasyWanに関連する話題)
- レス120: 「更新時に気付いた破壊的変更については更新履歴に変更手順を載せてあるで 基本的にはエラー出とるとこをコネクタ部分の名前が一致するように繋ぎ直す感じやね 最近はWanVideo Samplerへの接続をひとつ下に繋ぎ直すだけの修正が多いで」
- レス125: 「ワイの経験上EasyWanVideoはカスタムノードの追加含め batでアップデートする以外のことはやらない方がいい アプデが頻繁でワークフローいじるのさえ憚られる 最初はワークフローいじってたけどもうやめた EasyWanVideoはあくまでも動画の実験環境として全てをZuntanに委ねるのが正しい使い方」
- レス186: 「早速Wanローカル環境で作ってみた どこにも情報無いしゼロからトライしてみたけど何とか出来たっぽい 顔しか出来ん有料サービスもあるけど全身と背景で出来たっぽい」
- レス191: 「ComfyUIでwanとか使って普通に開始と終了画像していしてもモーフィングやトランスフォーム出来ないんよ 運が良ければほんの少しそれっぽいのが出るだけで」
- レス209: 「wanとhunyuanの脱衣系Loraも消えたしもう終わりだよこのサイト」
- レス216: 「あ、ホンマや Wanの服脱ぐlora軒並み消えとる」
- HunyuanVideo (Hunyuan)
- レス69: 「civitaiにあるHunyuanのLoRAぶちこんでも効くん?」
- レス73: 「civitaiで配布してるHunyuanのLoRAを使うと休んだりいらん事せずにピストンしてくれる様になったんや loraの掛かりを減らしてピストンマシーンからいい塩梅に他の事もする様に調整もできるンゴ」
- レス75: 「さんがつ、以前のバージョンだとHunyuanのLoRAでダメだったけど、 githubに1.9から大幅改善って書かれてるからちゃんと動くようになったのかな」
- レス93: 「framepackって中身hunyanなの?」
- レス209: 「wanとhunyuanの脱衣系Loraも消えたしもう終わりだよこのサイト」
- FramePack
- レス67: 「FramePack本来の売りの120秒だって行けるはずやで 寝る前に試しにセットするンゴ 打率が高くてほんま有力になってもうたおそろし」
- レス68: 「FramePackいつの間にこんな自然なピストンできるようになったんや」
- レス76: 「叡智も秒数が選べるようになったり LoRAをFP8で適用できたりしたのは嬉しい限りやね」(FramePack-eichiに関連)
- レス88: 「EasyWanVideoのFramePack-eichiは3時間前の『Merge pull request #30 from tofu-bar/tofubar/bugfix-lora』の更新に20分前に対応しといたで メインメモリ64GBで特に設定変更無しでLoRA使って生成できるみたいや」
- レス89: 「動きは申し分なくてもどうにもwanの崩れ方で台無しになることが多くて 崩れにくいFramepackが進化してくれるのは本当に喜ばしい」
- レス93: 「framepackって中身hunyanなの?」
- レス117: 「Lora紹介サンガツやで。おかげでワイもFramePack(eichi)でLora動かせるようになったわ。 しかし他でも報告あった通り最初がっつりメインメモリを持っていかれるな。今はSSDに逃げ場作って何とか動かしてる感じ。 でも生成が開始されるとメモリの使用量が下がって安定化するから、全体の生成時間はそこまで変わらないかな。」
- レス235: 「FramePack版pnginfoというかmp4infoが欲しい プロンプトからパラメータまで送りできる機能くれ研究や解析が進まない」
- FLUX
- SD3.5
- SD1.5
- CogView4
- HiDream
- UniAnimate
補足
- 上記以外のモデル(FLUX, SD3.5, SD1.5, CogView4, HiDream, UniAnimate)については、与えられたログ内に言及がありませんでした。
- Wan2.1, HunyuanVideo, FramePackに関する話題は多く、特に動画生成やLoRAの適用に関する議論が中心でした。
- 必要であれば、特定のモデルについてさらに深掘りした分析や関連するレス番号の追加情報を提供することも可能です。ご指示ください。
以上が抽出結果です。何か他にご質問や追加の要望があればお知らせください。