以下は、提供された5chログから、生成AIに関連する「ツール」に関する話題をすべて抽出したものです。抽出対象のツールは、ComfyUI (comfy)、A1111、webUI、SUPIR、nano-banana などのものを指し、指定されたモデル(NovelAI (NAI), Pony, illustrious(イラストリアス, リアス,ill,IL), Noobai, FLUX, Wan, Qwen)に関する話題は除外しています。ツールが選ばれている理由があれば、その点を明記して抽出しました。抽出はログの投稿番号を基に整理し、重複やモデル関連の文脈を避けています。
850: ComfyUIをv0.3.68からv0.3.67に戻したい場合ってどうやってバージョン戻すんや・・・?
(バージョンのダウングレード方法についての質問。)
852: Manager開いてSwitch ComfyUI
(ComfyUIのバージョンスイッチ方法としてManagerを使用することを提案。)
860: v0.3.68にするとRAM128GB積んでても突破してスワップする様になるからニキらも注意するんやで・・・
(v0.3.68のバージョンでRAM消費が過大になる問題を警告。)
866: v0.3.67もバグいからしばらくはv0.3.66に留まるのがええと思うで
(v0.3.67のバグを理由にv0.3.66への留保を推奨。選ばれている理由: バグが少ないため安定性が高い。)
878: ComfyUI 0.3.68 torch.compileとかメモリ周り手が入ってて良さそうやったんやけどあかんのか
(v0.3.68のtorch.compileやメモリ最適化の改善点を評価しつつ、問題の有無を疑問視。選ばれている理由: メモリ周りの最適化が入っているため良さそう。)
880: comfyuiを懐かしのfp8モードで起動すればええんやないかな?
(fp8モードでの起動を提案。)
881: 【朗報】ワイMMAudioのピッチ調整に成功 カスタムノードaudio-general-ComfyUIのバグ 「Audio Pitchノードが動作する度に28GBのメモリーリークが発生」する問題を修正することに成功 これによりMMAudioの「低音喘ぎ声」を「高音喘ぎ声」に変更可能となりポン出し性能が向上! 現在Githubとワークフローを準備中
(ComfyUIのカスタムノード「audio-general-ComfyUI」のバグ修正を報告。選ばれている理由: メモリリークを防ぎ、音声ピッチ調整が可能になり、ポン出し性能が向上するため。)
892: comfyuiの最新のコミットだとpinned memoryとか言うのが標準使用になって、タスクマネージャーで見てると共有GPUメモリを大量に確保してるのに全体の処理速度は以前より速いという不思議な状態になってるな pinned memoryについてはNVIDIA developerやPyTorchのサイトに何やら色々書かれてるが非同期での高速なデータ転送を可能にするナニカらしいと言うことしか分からんかった
(最新コミットのpinned memory機能について、共有GPUメモリの大量確保にもかかわらず処理速度が速くなる点を指摘。選ばれている理由: 非同期データ転送で高速化が可能。)
893: ComfyUIパッチノート見ると0.3.68でさらなる最適化が入ってるからアプデしたいと思う一方で壊れるの怖いなあという思い もしかして追加されるScaleROPEノード使ってScale t(time)の調整でおっぱいの揺れ速度制御行ける?
(v0.3.68のパッチノートで最適化が入っている点を評価し、ScaleROPEノードの潜在的な用途を推測。選ばれている理由: さらなる最適化が入っているためアップデートしたい。)
895: v0.3.68でなんかクッソ重くなる原因分かったわ DisTorch2MultiGPUノードで仮想vram設定とかしとると二重処理でRAM爆食いしてスワップする DisTorch2MultiGPUノードは捨てろ
(v0.3.68でDisTorch2MultiGPUノードがRAMを過剰消費する原因を特定し、使用を避けるよう勧告。)
898: Qwen Image Edit 2509のbf16モデルを使う時はさすがにDisTorch2MultiGPUノードで仮想vram設定せんと動かんわ・・・ Wan2.2のfp16やとDisTorch2MultiGPUノードでスワップするな・・・なんやこの挙動・・・
(DisTorch2MultiGPUノードの仮想VRAM設定が必要なケースを指摘。)
901: たぶん、–disable-pinned-memoryって起動オプションで以前の状態に戻せるで
(pinned memoryを無効化する起動オプションを提案。)
918: ならcomfyui使えない人もいっぱいおるし専用スレ作ってそっち行けやな
(ComfyUIを使えない人が多い点を指摘し、専用スレの作成を提案。)
919: ComfyUIに関しては「こうしたら使える」って話が出てるやろ
(ComfyUIの使い方に関する議論が既出である点を指摘。)
923: ComfyUIVer0.3.68で特に問題なし パッチノートに書いてあるScaleROPEとやらを試してみるか
(v0.3.68で問題がない点を報告し、ScaleROPEを試す意向。)
927: なら説明したるわ、patchファイルならpatchコマンド使うんやで それ以上でもそれ以下でもないから使い方は自分で調べてもろて patchコマンド使えってのも前に何回かでとることや
(patchファイルの適用にpatchコマンドを使う方法を説明。)
930: 折角llasa-3bの話出たからついでに llasa-trainerはflash attention使うようにしたら少し省メモリになって少し高速化できたで pytorch2.9.0+cu130でビルド済みflash-attnのwhl使用や あとoptimizerにradam schedule freeを使って学習も出来たから再現頑張りたい勢は色々工夫すると良くなるかもしれん
(llasa-trainerでflash attentionを使用すると省メモリ・高速化できる点を報告。選ばれている理由: 省メモリと高速化が可能。)
931: Enabled pinned memory 14705.0 Python version: 3.10.11 (tags/v3.10.11:7d4cc5a, Apr 5 2023, 00:38:17) [MSC v.1929 64 bit (AMD64)] ComfyUI version: 0.3.68 ComfyUI frontend version: 1.28.8 ComfyUI 更新したら起動ログにこんなん出たわ これが噂のpinned memoryか
(更新後の起動ログでpinned memoryが有効化された点を報告。)
940: 0.3.66くらいからVRAM12GBでもいけるで
(v0.3.66以降でVRAM12GBでも動作可能。選ばれている理由: VRAM要件が低く動作する。)
946: Pytorchそろそろ2.9.0にするか… ダイジョーブそうやな
(PyTorchのバージョン2.9.0への更新を検討。)
963: 0.3.66にしたらVRAMのお漏らしも改善したようや
(v0.3.66でVRAM漏れが改善した点を報告。選ばれている理由: VRAM漏れの問題が解消される。)
966: あとはDistorch2でお漏らし防いで速度低下の発生をなくす ことぐらいやろ
(Distorch2でVRAM漏れを防ぎ、速度低下を回避する方法を提案。選ばれている理由: 漏れ防止と速度維持が可能。)
952: civitai死んでる?
(Civitaiのダウンを確認する質問。)
954: ちびたい直った
(Civitaiの復旧を報告。)
985: CivitaiのVideosがまさにそれ ナンボでもありまっせ~
(CivitaiのVideos機能について、豊富なコンテンツがある点を指摘。選ばれている理由: 動画関連のコンテンツが豊富。)
903: DMMがにじボイスつって音声合成サービスやってるけど生成AIとの差は何なんやろ
(DMMのにじボイス音声合成サービスについて、生成AIとの違いを疑問視。)
925: だからすぐ上でも出てるやろちゃっぴーやgeminiで聞けば即出るで スレで探すよりはるかに速くて効率的や 昔からある一般的なものだし正確な情報教えてくれるで
(チャッピーやGeminiで情報を聞くことを推奨。選ばれている理由: 速くて効率的で正確な情報が得られる。)
933: 似た様な機能で2003年頃に発売されたROLANDのV-Synthに、入力された声とか楽器のフォルマントを弄繰り回せるVariPhraseとVocal Designerって機能が搭載されてたで。 当時、どんな場面で使えば良いのか解らない人が多くて流行らなかった模様。 今AI込みで新開発したら何でも出来そうやな
(ROLANDのV-SynthのVariPhraseとVocal Designer機能について、フォルマント操作が可能だった点を説明。選ばれている理由: AI込みで再開発すれば多用途になる可能性。)
934: V-Synth GT持ってるぜ 今でも適当に掻き鳴らしてストレス発散してる
(V-Synth GTを所有し、現在も使用中である点を報告。選ばれている理由: ストレス発散に使える。)
これらの抽出は、ログ内のツール関連の言及を網羅的にまとめました。モデル関連の文脈(例: WanやQwenのモデル使用時)は意図的に除外しています。