抽出された「ツール」に関する話題
ログ全体から、生成AIに関連するツール(ComfyUI, A1111, webUI, SUPIR, nano-banana などの画像生成/編集/学習ツール)のみを抽出。モデル(NovelAI, Pony, illustrious, Noobai, FLUX, Wan, Qwen などリスト記載のもの)に関する話題は一切除外。ツールが選ばれている理由や文脈も併記。
nano-banana (nanobanana, banana, nanobanana pro)
- 469: 「nano bananaはほんま便利よな これはどうしてもになるのでbananaに頼んだうんこ型の雪」
→ 便利さが強調され、特定の生成(うんこ型の雪)に頼った使用。
- 473: 「背景のカラースタイルくらいはSDXLで誘導してqwenでブラッシュアップとも思ったが存外思ったようにいかんのよなぁ あと存外Qwenは背景強くない bananaはあんまさわった事ないんだけど背景はどこがええんかねぇ」
→ 背景生成の選択肢として言及(未使用だが比較で便利さが示唆)。
- 562: 「nanobanana proが無料で使い放題って聞いて Google AI Proに契約したんですけど…サードパーティの生成だと無料分でも パンチラも半裸も余裕で出て…公式の方が制限きつい」
→ nano-banana proの無料使い放題を期待して契約したが、公式の規制が厳しくサードパーティの方が便利と不満。
- 575: 「banana pro以上のツールがローカルにないからやろ?」
→ banana proの性能が高く、ローカル代替がないためオンライン依存の理由。
- 576: 「ポテンシャル的にはQwen image editもbananaに迫る性能を持ってると思う…Qwenが理解できるプロンプトを書けないだけ」
→ bananaの性能を基準に他のツール比較(高い性能が理由)。
- 592: 「banana proで無規制全力でエロでも誰でも使えたら…スペック エロはまあ出せないけどワイはSFW用途もあるから満足」
→ 無規制・高スペックが魅力だがエロ制限あり、SFW用途で満足。
- 626: 「バナナの凄さは自分が望んだものが出せるっていう所」
→ ユーザーの望むものを出せる柔軟さが選ばれる理由。
ComfyUI (comfy, comfyui)
- 547: 「ところでComfyUIのノードでドロップダウンリストで選択された項目のインデックス出力するの無いやろか? 単にモデルを切り替えたいだけなんやけど数値によるインデックス指示だと判り辛いのでなんとかしたいんや」
→ ノードのカスタマイズ(ドロップダウンリストのインデックス出力)でモデル切り替えを効率化したい。
- 568: 「conditioning分離してconcatするとある程度分離されるって見たんやけど 素直に前々スレで出とったcomfycouple等使った方がええんやろな」
→ comfycouple(ComfyUIカスタムノード?)を動画生成の分離処理に推奨。
- 585: 「comfyuiのpower lora loader(rgthree)のlora選択時、リストにマウスホバーしてもloraのサムネでなくなったンゴ? 重宝してたんだが、新年でアップデートしたのが良くなかった?」
→ power lora loader(rgthree)のLoRA選択UI(サムネホバー)が重宝されていたがアップデートで不具合。
- 617: 「»547 手ごろなカスタムノードが無さそうだからお試しで作ってみたけど…IndexSwitchのようなものを挟んでいたらノードIDしか見えないじゃーん」
→ ComfyUIノードのカスタム作成試行(インデックス出力用)。
- 619: 「»617 プロパティーでカンマ区切り文字列与えてドロップダウンで選択とか考えてたんやけど無いんか 新しい事覚えてカスタムノード作るのは腰が重い」
→ ComfyUIのドロップダウン選択機能のカスタムを検討。
Qwen Image Edit (QIE), QIL (Qwen Image関連ツール)
- 453: 「Qwen Image Editは、コントロール画像なしでも画像生成できるし…GelbooruのAPIを利用してdanbooruタグ付きのネット画像1081枚をコントロール画像無しで学習させた場合に…vast.aiでVRAM 96GB…実験してみた」
→ コントロール画像なし生成、日本語/英語/タグ対応の柔軟さ、LoRA学習実験に使用(vast.aiクラウド併用)。
- 458: 「今ならQILで透過するという手もある ただの編集能力なら透過させるまでもないというのもある」
→ 透過処理に使用可能。
- 576: 「Qwen image editもbananaに迫る性能を持ってると思うで 問題は扱う側がsdxlの部族語に慣れ過ぎて…自然言語をまともに扱う事が出来なくなったせいで」
→ banana並の性能ポテンシャル、自然言語プロンプトの扱いやすさが理由(SDXLユーザーにはハードル)。
- 579: 「どう考えてもQIEはと比較にならんぞ」
→ 他のツールとの比較で性能を疑問視(否定的)。
Zimage (ZimageBase, ZimageTurbo)
- 467: 「SDXLの背景はきついよな…ZimageBaseはよ来いや」
→ 背景生成の解決に期待。
- 498: 「背景周りはZimageにちょっと期待してるからマジでZimageBaseはよ来いや」
→ 背景問題解決に期待大。
- 571: 「Qwen+LoRAでもいいしZimageTurbo+LoRAでも余裕」
→ 全裸生成などのエロ対応に使用可能。
その他のツール
-
llama.cpp:
493: 「llama.cppのforkでQwen3-Omni対応してたから…bf16のままGGUFに変換して動かせたわ 60GB超えてるモデルやからsafetensors+transformersやとクソ遅くて…llama.cppだと6倍以上早くなって十分使えるレベル」
→ 高精度キャプション付け・データセット作成に速度向上で選ばれ(safetensors+transformersより6倍速い)。
-
SAM3 (Detailer):
518: 「画像生成:SAM3でのDetailerめっちゃいいわ! モデル1つだけロードすれば後はテキストで判別してほしいところ指定できるのが便利過ぎる。accessoriesって指定したら髪飾りもイヤリングも認識してくれる!」
→ テキスト指定で顔/手/目/アクセサリなどの詳細修正に便利、かゆいところに手が届く。
-
kohya_ss (GUI含む), StabilityMatrix, sd-scripts:
550: 「StabilityMatrix経由でkohya_ss入れて普通にLora作ってるワイは少数派なんか?」
551: 「未だsd-scriptsでtomlとbat書いてシコシコやってるのもワイ位やと思う」
555: 「未だにkohya_ss GUI使ってるのワイぐらいやろなぁ…」
558/559: 少数派ながらLoRA学習に使用継続。
-
reforge:
533: 「今更ながらXL使うためにreforgeで環境作ったんやが」
→ XL環境構築に使用。
-
その他マイナー/クラウド:
477: 「flux2触りたいときはクラウド使うのがええで Higgsfieldとかで」 → Higgsfield(クラウドツール)。
493: 「vast.aiでVRAM 96GBのPRO 6000のマシンが0.713$/hr」 → クラウドレンタルでLoRA学習。
これでログ内の全ツール関連話題を網羅。モデル(Qwen本体, SDXL, Flux, Wanなど)の言及は抽出除外。ツール選好理由は主に「便利」「速度」「柔軟性(自然言語/制御なし)」「背景/編集対応」「規制緩さ」など。