以下は、提供された5chのログから、指定された生成AIの「モデル」に関する話題を抽出したものです。対象となるモデルは以下の通りです:
- NovelAI v4もしくはv3 (NAI)
- Gemini (Gemini 2.0 Flash Exp, Imagen)
- KLING AI (Kling)
- Animagine XL 4.0 (魔人, Anim4gine)
- Pony
- Illustrious 0.1, 1.0, 1.1, 2, 3, 3.5vpred (イラストリアス, リアス, Ill)
- Noobai
抽出結果
- Pony
-
642: 「Aura Flow みたいな新しいモデルなんやがいまいち話題になってない というかPonyV7はもう忘れ去られてるな」
→ PonyV7が話題になっていない、忘れ去られているという言及。
-
830: 「五条先生ポーズのblindfold liftはcivitaiにPony Loraあるけど、勢いよくセッせしてる時に外れちゃったみたいな構図が欲しいんよ」
→ Pony Loraについての言及。特定の構図を出すために使用されていることがわかる。
- Illustrious (リアス, Ill)
-
720: 「ありゃ、noobとリアス派生のCatTower、CatCarrierは効くけどなぁ」
→ リアス派生のモデル(CatTower, CatCarrier)についての言及。特定のタグが効くという内容。
-
738: 「CIVITAIでIllumiYumeのコメントに左右の書き分けに反応しないってあるやんけ 試してみたらやっぱ書き分けできへんし 高解像度でポン出しすると胴長になっちゃうし IllumiYumeに限らんけど1.0以降のマージモデルって何か今一強みが分からへん……」
→ IllumiYume(Illustrious関連と思われる)についての言及。左右の書き分けができない、高解像度での問題点が挙げられている。
-
741: 「リアス2.0は自分がマージしてる感覚やと細部の改善は見られるからちゃんとマージできれば良くなるんやなか感はある」
→ リアス2.0について、細部の改善が見られるとの言及。マージ次第で良くなる可能性があるとの意見。
-
802: 「もう4月も残り僅かやけどリアス3.0はどうなったんや とりあえず4月にtensorartとかで使わせてくれるんじゃなかったんか」
→ リアス3.0の進捗についての言及。4月に利用可能になる予定だったが現状が不明との内容。
- Noobai
-
720: 「ありゃ、noobとリアス派生のCatTower、CatCarrierは効くけどなぁ」
→ Noob(Noobaiと思われる)についての言及。特定のタグが効くという内容。
-
721: 「はじめに背景だけ出して、出したいところだけNoob in paintで塗って出すとか出来んのかな」
→ Noob(Noobaiと思われる)を使用した手法についての言及。背景と特定の部分を分けて生成するアイデア。
該当なしのモデル
以下のモデルについては、ログ内に言及が見られませんでした:
- NovelAI v4もしくはv3 (NAI)
- Gemini (Gemini 2.0 Flash Exp, Imagen)
- KLING AI (Kling)
- Animagine XL 4.0 (魔人, Anim4gine)
補足
ログ内には多くの生成AIモデルやツール(例:Aura Flow, Wan, FramePack, FLUXなど)についての話題がありますが、指定されたモデルに該当しないものは除外しました。もし他のモデルについても抽出が必要であれば、追加で指示をお願いします。
まとめ
抽出された話題は主にPony, Illustrious (リアス), Noobaiに関するもので、モデルの性能や問題点、派生モデルの効果、進捗状況などが議論されています。もし特定のモデルについてさらに深掘りした分析や関連する周辺話題の抽出を希望される場合は、ぜひお知らせください。以下に、与えられたログから指定された生成AIの「モデル」に関する話題をすべて抽出し、該当する部分を日本語で整理してまとめます。対象となるモデルは以下の通りです:
- FLUX
- SD3.5
- SD1.5
- CogView4
- HiDream
- Wan2.1 (wan)
- HunyuanVideo (Hunyuan)
- FramePack
- UniAnimate
抽出結果
FLUX
- 829: 「元絵のことやったね FLUXやね」「480Pと720P両方使ってみてもほとんど差を感じないんよね」
→ FLUXが元絵の生成に使用されていることが言及されており、動画の解像度による差があまり感じられないとのコメント。
- 831: 「はえーfluxもだいぶ進化しとるんやな」「ひょっとしたら昔ワイがflux使いこなせてなかったのかもしらんが」
→ FLUXの進化について驚きの声が上がっており、過去に使いこなせていなかった可能性を振り返るコメント。
- 832: 「実写はhidream-i1も良かったと思うわ fluxより必要スペックきついみたいやからローカル構築はしとらんが」
→ FLUXとHiDream-i1を比較し、FLUXの方がスペック要件が低いとされるが、ローカル構築はしていないとの言及。
SD3.5
SD1.5
CogView4
HiDream
- 832: 「実写はhidream-i1も良かったと思うわ fluxより必要スペックきついみたいやからローカル構築はしとらんが」
→ HiDream-i1が実写生成に良いと評価されているが、FLUXよりも高いスペックを要求するためローカルでの構築はしていないとのコメント。
Wan2.1 (wan)
- 658: 「そういえばWanのI2Vでwallpaper engineの壁紙作れそうやな」
→ WanのI2V(Image to Video)機能を使って壁紙エンジン用の壁紙を作成できる可能性について言及。
- 707: 「WANやFPのプロンプトわからんちんで回れ右する人多そうだから SFのプロンプトからそれっぽい動画に使えるプロンプト構築してくれる 簡易AI搭載してほしい。まぁ欄行き来すればすむっちゃすむけど」
→ WanやFramePackのプロンプトが分かりにくいため、初心者が使いづらいと感じていること、またプロンプト構築を補助するAIの搭載が望まれているとの意見。
- 722: 「Wanでi2V480P LoRA無しの条件で 4070ti 12GBだと250秒 5090だと60秒 flame packもそうだけど動画生成は4070ti比で大体4倍くらい強くなってる」
→ Wanを使用したi2V動画生成(480P、LoRAなし)の処理時間が、GPUの性能(4070tiと5090)によって大きく異なることが報告されている。
- 729: 「三日くらい前にでたWan2.1-Fun V1.1てやつ結構いいと思う リファレンス画像ってやつを指定出来るからunianimateよりも破綻が遥かに少ない」
→ Wan2.1-Fun V1.1が最近リリースされ、リファレンス画像を指定できる機能によりUniAnimateよりも破綻が少ないと評価されている。
- 733: 「エロいリファレンス画像を用意するにはどうすればええか・・・ これがなかなか難しいねんな・・・ デキのいいLoRAを使うほうがラクな気がしてきてもうた 日常パートとか作るなら役立つやろけど」
→ Wan2.1でのリファレンス画像(特にエロ系)の用意が難しいとの意見。LoRAを使用する方が簡単だと感じているコメント。
- 787: 「実はエロをちゃんとやるならEasyWanVideo経由のWanのほうが易しいと思うで 一般人はVRAM12GBのグラボ持ってないし非エロでもOKやからFramePackで うおおおおおってなっとるだけで」
→ エロ系の動画生成においては、EasyWanVideo経由のWanが使いやすいとの意見。FramePackはVRAM要件が高いため一般人には厳しいとの指摘。
- 789: 「そうなんやFramePackってforgeみたいな立ち位置なんやね、名前的にこっちのが動き綺麗なんかと思ってたわ そこそこのグラボやからwanでやってみるで助かる」
→ FramePackをForgeのようなツールと誤解していたが、Wanの方が手軽に使えると理解し、試してみるとのコメント。
- 800: 「WanVideoで髪の動きを見たくて出したやつの詰め合わせ 半分近くはそうじゃないの混ぜたけど」
→ WanVideoを使って髪の動きを表現した動画を生成し、その結果を共有するコメント。
- 806: 「WANVideoのLoRA使えるんやないんけ?」
→ WanVideoでLoRAが使える可能性について質問。
- 811: 「FramepackはFramepackで学習し直した方がええ。Hunyuanはt2vでも学習はできたがWanはt2vはまともにできたことがない。Wanは知らない物体の学習には向かなくて、動きという概念そのものしか覚えさせるの難しいのではという気がしてる。」
→ WanはText-to-Video(t2v)の学習には不向きで、未知の物体よりも動きの概念を学習させるのに適しているとの意見。
- 822: 「800で使っとるのはkijaiニキのWan2.1 I2V 14B 480Pやね」
→ 使用しているモデルがWan2.1 I2V 14B 480Pであることが明記されている。
- 825, 826, 829: 「動画じゃなくて元絵の方のモデルじゃないかな?」「あ、いや実写を出している画像生成AIのほう Wanのモデルはまあそれよな(720Pかなとは思ったけど)」「はえーfluxもだいぶ進化しとるんやな」
→ Wanのモデルを使用して動画生成を行っているが、元絵や実写生成に関する話題の中で言及。
HunyuanVideo (Hunyuan)
- 805: 「citivaiのHunyuanVideo向けLoraがFramePack叡智で使えるんかと思ったけどそんなこと無かった…」
→ CivitaiにあるHunyuanVideo向けのLoRAがFramePackで使えると思ったが、実際には使えなかったとの報告。
- 808: 「FramePack自体がHunyuanVideoベースでFramePack叡智のページにも『Hunyuan LoRA対応状況』ってなってるしね 暫定対応状態らしいからちゃんと動く保証もないからねぇ」
→ FramePackがHunyuanVideoをベースにしていること、Hunyuan向けLoRAの対応が暫定的であり、動作保証がないことが言及されている。
- 811: 「Hunyuanはt2vでも学習はできたがWanはt2vはまともにできたことがない。」
→ HunyuanVideoはText-to-Video(t2v)の学習が可能であると評価されている。
- 812: 「結局FramePackとHunyuanVideoは別物と考えるのがええんやろか 同じプロンプトで試してみるしかないやね」
→ FramePackとHunyuanVideoを別物として考えるべきか迷いがあり、同じプロンプトで比較する必要があるとの意見。
FramePack
- 707: 「WANやFPのプロンプトわからんちんで回れ右する人多そうだから SFのプロンプトからそれっぽい動画に使えるプロンプト構築してくれる 簡易AI搭載してほしい。まぁ欄行き来すればすむっちゃすむけど」
→ FramePack(FP)のプロンプトが分かりにくいため初心者が使いづらいと感じ、プロンプト構築を補助するAIの搭載が望まれているとの意見。
- 722: 「flame packもそうだけど動画生成は4070ti比で大体4倍くらい強くなってる」
→ FramePack(記載ミスで「flame pack」と表記)を使用した動画生成の性能が、GPUの進化によって向上しているとの報告。
- 773: 「framepackえいち触ってる赤ちゃんやが難しいねんな… これ英文法から学びなおさないといけない感じなんやろか? 胸揉みとか作りたいけど上手く動かんやね」
→ FramePackの操作が難しく、特にエロ系の動作(胸揉みなど)を表現するのが難しいとの意見。英文法の理解が必要か疑問を投げかける。
- 776: 「FramePackでEternal Foreverして眠りにつきたい」
→ FramePackを使った動画生成に没頭したいとの感情的なコメント。
- 778: 「普通の動作が単語だけでちゃんと機能するから エロ関係動作の知識がないっていう根本的な問題っぽい LORA使うかzuntanさんがやってるキーフレーム画像で動きを誘導させるとかエロ関係は工夫が必要」
→ FramePackでは通常の動作は単語指示で可能だが、エロ系の動作には知識が不足しており、LoRAやキーフレーム画像での工夫が必要とのアドバイス。
- 787: 「一般人はVRAM12GBのグラボ持ってないし非エロでもOKやからFramePackで うおおおおおってなっとるだけで」
→ FramePackはVRAM要件が高く、一般ユーザーにはハードルが高いが、非エロ用途でも注目されているとの指摘。
- 789: 「そうなんやFramePackってforgeみたいな立ち位置なんやね、名前的にこっちのが動き綺麗なんかと思ってたわ」
→ FramePackをForgeのようなツールと誤解していたが、動きの美しさに関する期待があったとのコメント。
- 790: 「いやForgeとはだいぶ話が違う そもそもモデル作っているとこも違うし、生成するときのコードの理論も違うっぽいし」
→ FramePackとForgeは全く異なるツールであり、開発元や生成理論が違うことが指摘されている。
- 799: 「画像生成はForgeかReForge、動画生成はEasyWanVideoやFramePackのGUIってニキが多いんやないやろか」
→ 動画生成ではFramePackのGUIを使用するユーザーが多いのではないかとの推測。
- 805, 808: 「citivaiのHunyuanVideo向けLoraがFramePack叡智で使えるんかと思ったけどそんなこと無かった…」「FramePack自体がHunyuanVideoベースでFramePack叡智のページにも『Hunyuan LoRA対応状況』ってなってるしね」
→ FramePackでHunyuanVideo向けLoRAが使えるか試みたが失敗し、FramePackがHunyuanVideoベースであることが確認されている。
- 809: 「FramePackはおさげ(twin braids)の動きがイマイチなきがする」
→ FramePackでの髪型(おさげ)の動きが不自然に感じるとの意見。
- 811: 「FramepackはFramepackで学習し直した方がええ。Hunyuanはt2vでも学習はできたが…FramepackはHunyuanにやっぱり近くて、学習元の動画のオブジェクトがそのまま出てくるような感触がある」
→ FramePackはHunyuanVideoに近く、学習元の動画オブジェクトをそのまま反映する傾向があるため、独自に学習し直す必要があるとの意見。
- 812: 「結局FramePackとHunyuanVideoは別物と考えるのがええんやろか 同じプロンプトで試してみるしかないやね」
→ FramePackとHunyuanVideoの関係性について疑問があり、比較実験が必要とのコメント。
- 820: 「Framepack信じられんくらいの頻度で更新入るからもうちょっと落ち着いてからでええか……になっちゃう issue多すぎてああああああってなるもん」
→ FramePackの更新頻度が高すぎて追いつくのが大変であり、問題(issue)も多いため開発者も苦労しているとの推測。
UniAnimate
- 729: 「三日くらい前にでたWan2.1-Fun V1.1てやつ結構いいと思う リファレンス画像ってやつを指定出来るからunianimateよりも破綻が遥かに少ない」
→ Wan2.1-Fun V1.1がUniAnimateよりも破綻が少なく、リファレンス画像の指定が有効であると比較評価されている。
まとめ
上記のログから、指定されたモデルに関する話題をすべて抽出し、該当箇所を整理しました。以下に各モデルの言及頻度と主な内容を簡潔にまとめます:
- FLUX: 実写生成や進化に関する話題があり、元絵生成に使用されている(3件)。
- SD3.5, SD1.5, CogView4: 言及なし。
- HiDream: 実写生成に良いがスペック要件が高いとの評価(1件)。
- Wan2.1 (wan): 動画生成(I2V, T2V)に関する話題が多く、性能や使いやすさ、リファレンス画像の活用、LoRA対応などが議論されている(14件)。
- HunyuanVideo (Hunyuan): FramePackとの関連性やLoRA対応、T2V学習の可能性について言及あり(5件)。
- FramePack: 動画生成ツールとして頻繁に話題に上がり、操作の難しさ、更新頻度、HunyuanVideoとの関係、動作の自然さなどが議論されている(18件)。
- UniAnimate: Wan2.1と比較して破綻が多いとの評価(1件)。
もしさらに詳細な分析や特定のモデルに焦点を当てた深掘りが必要であれば、お知らせください。