抽出結果: 指定モデルに関する話題
ログ全体をスキャンし、指定モデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する言及をすべて抽出。選ばれている理由(利点、比較、問題解決など)が明記されている場合を特に強調。該当なしのモデルは明記。
NovelAI (NAI)
- 755: NAIちゃん死んでる?
- 759: NAIちゃん仕様変更告知出したあと落ちてるね。これ何かしら事故ったな。
- 762: NAIちゃん入れんね。なんかあったのかな?
- 763: »759 もしかして二次ダメになるのかなそれはいやだな。
- 766-767: »766 なんの仕様変更や? → ポーションのキャッシュの扱いを変更しました、みたいな内容の告知が出てログイン画面に飛ばされて無限ループ。
- 768: もしかしてそろそろV5 Curatedくる?
- 774: そろそろ出てもいい頃合いだよなNAIv5 世はまさに画像生成AI戦国時代だし。
- 848: NAIちゃん高速化の為に規約変更したとか書いてあったけど、平日の日中は今までの仕様でも爆速だったから違いが分からんね。
選ばれている理由:
- 高速化のための規約変更(ポーションキャッシュ扱い変更)で期待(848)。
- V5 Curated/V5のリリース期待(768, 774)。サービス障害多発で不満も。
Pony
illustrious (イラストリアス, リアス, ill, IL)
Noobai
- 833: ComfyUI v0.4.0で「Properly load the newbie diffusion model.」 → newbie diffusion modelに対応したんだろうか。
選ばれている理由: なし(ComfyUIアップデートでの対応言及のみ)。
FLUX
Wan (主にWAN2.2, WAN2.1, wan video, easywan22, DaSiWa関連)
- 716: wan2.2のデフォルトWFで試しに動画作らせて見たらタスクマネージャー見たらRAM96GBでコミット済み89/103GB → スワップ発生?
- 732: 2ヶ月くらい浦島なんやが動画生成はWAN2.1からいいの出た? stable video infinityっての見たけどzuntanニキからでてなくて入れ方わからンゴ… → 733 あ、WAN2.2か。
- 741: SVIのgithubからサンプルワークフローのjson落として… wan video~やらvideo combineやら動画生成してる人なら大抵入ってる。モデルだけfp8に差し替えたわ(VRAM16GBでOOM出たから)。
- 750: ガラスキスならeasywan22であったような使ったことはないけど。
- 751: dasiwaQ8を軽く使ってみたが確かに中出しLoRA使っても破綻しなくてええね。ただ肝心のピストン運動が残念や…体位LoRA使ってもあまり改善しない。行為中の動きに関してはSmoothMix+体位LoRAの方がええと思う。
- 787: DaSiWa tastysin、WAN2.2と比べてイラストの絵柄や顔崩れにくいし、複雑な動きじゃなければ大体プロンプト通りにやってくれるしええな(ワイ比)。
- 788: DaSiWa TastySin Q8とSmoothMix Animations Loraつかって作成。
- 810: grokやとアニメキャラと自分の写真を雑に合成しても上手く馴染んで自在に動かせてたけど WANは雑合成だと動きが悪いような気がして元絵の時点で俺とキャラがまぐわってないとあかんと考えた。
選ばれている理由:
- DaSiWa (dasiwaQ8/TastySin Q8): WAN2.2比でイラスト絵柄・顔崩れにくい、複雑な動き以外はプロンプト通り(751, 787)。破綻しにくい(中出しLoRA使用時)。
- fp8版: VRAM16GB環境でOOM回避(741)。
- 欠点: 雑合成時の動きが悪い(810)、ピストン運動残念(751)。
Qwen (主にqwen, QIE2509/QIE25O9, Q8量子化版、qwen3)
- 648: Q8ってfp16相当な代わりに要求スペックも相応に上がるんよね?
- 651: qie2509の砂嵐はsimplecomfyuiと組み合わせると起こった…stabilitymatrixで動かしたら発生しなかった。
- 655: テンプレのフローで砂嵐なった。何がおかしいかは分からんがモデルを差し替えたらなくなった。
- 664: 俺もeasyimage環境でqwen使うと生成結果が砂嵐になるな。別の環境で同じワークフロー使うと普通に出てくる。
- 666: »648 fp8と比べるとロード時のRAMの負担が低く処理は軽いため要求スペックは少し低め。Q8はモデルサイズがfp8と同等で精度はfp8とfp16の中間…RAM容量が少ない場合はメリットが大きい。ただし速度は遅い。
- 668: 砂嵐は起動オプションの–fast消したら治ったでワイは。
- 675: QIE2509はsageattentionと相性悪いみたいな話あったような。起動オプションに–use-sage-attentionが入ってるなら一旦消してみたら。
- 678: simpleComfyUIでQIE25O9のfp8使うと必ず砂嵐 Q8やbf16ではならぬ。
- 679: qwenにsageattentionは相性悪いというかエラー吐くね。
- 683: »650 ワイもまったく同じ現象なったわ bf16使ったらちゃんと出たんでまあええかで済ませた。
- 684: fast消したら砂嵐改善して上手くいった!
- 689: -fastオプション切ったらいけたが違うかな。
- 699: 5060ti16gbにメモリ128GBにしてLLMのQwen3-235B-(中略)-Q3が動かせるようになって。
選ばれている理由:
- Q8量子化: fp8比でRAM負担低く処理軽め(ロード時1.5-2倍消費せず)、精度はfp8/fp16中間。RAM少ない環境でメリット大(666)。fp16相当精度だがスペック上がる?(648)。
- bf16/Q8: fp8より砂嵐回避(678, 683)。
- 問題解決: –fast消去(668, 684, 689)、sageattentionオフ(675, 679)、環境変更/モデル差し替え(651, 655, 664)。
- Qwen3-235B-Q3: 高スペック(メモリ128GB)でLLM/画像量産可能(699)。
まとめ: 主な話題はQwen/Wanのトラブルシュート(砂嵐、RAM、量子化)と比較優位性。NAIはサービス障害/V5期待。Noobaiはアップデート対応のみ。他モデルなし。
抽出された生成AIモデル関連話題(除外モデル除く)
ログ全体から、生成AIの「モデル」に関する言及を抽出。除外リスト(NovelAI(NAI), Pony, illustrious, Noobai, FLUX, Wan, Qwen)のモデル/ツールは完全に除外。量子化形式(Q8, fp8, fp16, bf16, ggufなど)や具体的なモデル名(DaSiWaなど)に絞り、話題の文脈と選ばれている理由(あれば)を記載。LoRAやWF/ノードはモデル本体でない限り除外。
1. Q8 (GGUF量子化モデル)
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 648 | Q8ってfp16相当な代わりに要求スペックも相応に上がるんよね? |
| 666 | fp8と比べるとロード時のRAMの負担が低く処理は軽いため要求スペックは少し低め。Q8はモデルサイズがfp8と同等で精度はfp8とfp16の中間あたりの場合が多い… Q8等の量子化されたggufモデルは膨れ上がらないためRAM容量が少ない場合はメリットが大きい。ただし速度は遅い。 |
| 669 | ま、なんにせよdagiwaのQ8落とせるようになってからだな |
| 678 | simpleComfyUIでQIE25O9のfp8使うと必ず砂嵐 Q8やbf16ではならぬ |
| 751 | dasiwaQ8を軽く使ってみたが確かに中出しLoRA使っても破綻しなくてええね |
| 787 | DaSiWa tastysin、…イラストの絵柄や顔崩れにくいし、複雑な動きじゃなければ大体プロンプト通りにやってくれるしええな |
| 788 | DaSiWa TastySin Q8とSmoothMix Animations Loraつかって作成 |
- 選ばれている理由: RAM負担が低くスペック低めで扱いやすい(safetensors比)。精度がfp8/fp16中間級で安定。dasiwa/daGiWaのQ8版は特に破綻しにくく(中出しLoRA対応)、イラスト絵柄/顔崩れ耐性が高く、複雑動き以外プロンプト忠実。ただし速度遅めで、ピストン運動などの動きはSmoothMix LoRAより劣る。砂嵐回避にも有効。
2. fp8 / fp16 / bf16 (量子化/精度形式)
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 648 | Q8ってfp16相当な代わりに要求スペックも相応に上がるんよね? |
| 666 | fp8と比べると…精度はfp8とfp16の中間… |
| 678 | QIE25O9のfp8使うと必ず砂嵐 Q8やbf16ではならぬ |
| 683 | bf16使ったらちゃんと出たんでまあええか |
- 選ばれている理由: fp8はRAM/処理軽量だが精度中間。fp16は高精度だがスペック高め。bf16は砂嵐回避に有効で安定生成。速度/品質のトレードオフで選択(–fastオプション関連)。
3. GGUF (量子化形式全般)
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 666 | Q8等の量子化されたggufモデルは…RAM容量が少ない場合はメリットが大きい |
| 670 | ワイはRAM128GBあるからRAM気にしないgguf使わないほうが早いってことなんか |
| 671 | ggufって何って読むんや?グーグフけ? |
- 選ばれている理由: RAM消費低減(safetensorsの1.5-2倍消費回避)。低RAM環境向けだが速度遅めのため、高RAM環境では非GGUF優先。
4. DaSiWa / DaSiWa TastySin (Q8版中心)
- 関連ログ: 上記Q8の751,787,788と重複。
- 選ばれている理由: イラスト絵柄/顔崩れ耐性高く、プロンプト忠実(複雑動き以外)。中出しLoRA耐性ありで破綻少ない。WAN2.2比で優位(ワイ比)。
5. newbie diffusion model
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 833 | Properly load the newbie diffusion model. ってあるけどnewbieに対応したんだろうか |
- 選ばれている理由: ComfyUI v0.4.0で正式対応。詳細な理由なし(新機能実装)。
6. Ovis image model
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 841 | Implement the Ovis image model. またなんか新しいの増えたんか |
| 846 | またアリババ製らしい |
- 選ばれている理由: ComfyUI v0.4.0で実装。アリババ製(懸念あり)。FP16 LoRA高速化と連動か。
7. Grok
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 810 | grokやとアニメキャラと自分の写真を雑に合成しても上手く馴染んで自在に動かせてたけど WANは雑合成だと動きが悪い |
- 選ばれている理由: 雑合成(アニメキャラ+写真)で馴染み良く自在動作。WAN比で動き優位。
8. PainterLongVideo
- 関連ログ:
| 番号 | 抜粋 |
|——|——|
| 811 | painterlongvideoのwfってあるんやろか? …シード値が同じなのか1度生成したらプロンプト変えないと生成始まらなくてガチャれない |
- 選ばれている理由: 動画生成向けWF使用中だがシード固定問題あり(random設定で解決)。
全体傾向: 量子化(Q8/GGUF中心)のスペック/RAM/安定性議論が最多。DaSiWa Q8が高評価で具体的に選好。ComfyUI更新で新モデル(newbie/Ovis)対応話題。エロ生成時の破綻耐性/動きが選択基準の鍵。