Sharpという技術で画像から3D画像を作って動かして、ぐちゃった部分をこのloraで修復する事で別視点の画像を作れるっぽい
https://huggingface.co/dx8152/Qwen-Edit-2511-Sharp
https://www.youtube.com/watch?v=9Vyxjty9Qao
>>107
一応Wan 2.2も非公式にnvfp4化したモデルは出とるで
https://huggingface.co/GitMylo/Wan_2.2_nvfp4/tree/main
FP8モデルより25%速くなるようやな
LLMで高性能なGLM4-7出してるZ.aiがGLM-Image出したらしい
https://x.com/Zai_org/status/2011247591825068314
HFにもう来てる
https://huggingface.co/zai-org/GLM-Image
https://raw.githubusercontent.com/zai-org/GLM-Image/refs/heads/main/resources/show_case_t2i.jpeg
https://raw.githubusercontent.com/zai-org/GLM-Image/refs/heads/main/resources/show_case_i2i.jpeg
>>225
whlあるでー
https://huggingface.co/ussoewwin/Flash-Attention-2_for_Windows/tree/main
日本人の人が公開してくれてはる
nvfp4使ってみたい50xxのニキはComfyUIフォルダで.\venv\Scripts\activateして↓でええんやないかな
pip3 install -U torch==2.9.1+cu130 torchvision==0.24.1+cu130 torchaudio==2.9.1+cu130 –index-url https://download.pytorch.org/whl/cu130
pip install -U triton-windows
curl -L https://github.com/woct0rdho/SageAttention/releases/download/v2.2.0-windows.post3/sageattention-2.2.0+cu130torch2.9.0.post3-cp39-abi3-win_amd64.whl > sageattention-2.2.0+cu130torch2.9.0.post3-cp39-abi3-win_amd64.whl
pip uninstall sageattention
pip install sageattention-2.2.0+cu130torch2.9.0.post3-cp39-abi3-win_amd64.whl
curl -L https://huggingface.co/ussoewwin/Flash-Attention-2_for_Windows/resolve/main/flash_attn-2.8.3%2Bcu130torch2.9.1cxx11abiTRUE-cp312-cp312-win_amd64.whl?download=true > flash_attn-2.8.3%2Bcu130torch2.9.1cxx11abiTRUE-cp312-cp312-win_amd64.whl
pip uninstall flash_attn
pip install flash_attn-2.8.3+cu130torch2.9.1cxx11abiTRUE-cp312-cp312-win_amd64.whl
>>288
QI2512は高速化LoRA使っても意外と画質落ちないし4step LoRAならZITより速いまであるよ
リアル系しか試してないけど
https://huggingface.co/lightx2v/Qwen-Image-2512-Lightning/tree/main
ワイは普段は8step LoRAでやっているけどPromptチェックとかは4stepでも十分
あとZITよりPromptにはよく反応する気がする
LTX2のVAEが間違ってたとかで公式やkijaiが修正版を上げ直してるんやな
https://huggingface.co/Lightricks/LTX-2/commits/main
https://huggingface.co/Kijai/LTXV2_comfy/commits/main
LTX-2の公式チェックポイント配布のファイル名が「ltx-2-19b-dev-fp4」
一方でモデルカードの説明を見ると「The full model in nvfp4 quantization」
https://huggingface.co/Lightricks/LTX-2?utm_source=chatgpt.com
「nvfp4」を略して「fp4」とファイル名を付けてるからだいぶ混乱してるけど
これからは「fp4」といったらもっぱら「nvfp4」のことを指すようになっていくのでGPTも察してくれるようになるはず
Flux.2-klein 4bのdiffusion_modelsが7.5GBでtext_encoderが8GB(qwen_3_4b)
9bと4bが出て4bだけapache LICENSE-2.0
これテキストエンコーダー強化したSDXLくらいの立ち位置狙ってんのかな
https://huggingface.co/black-forest-labs/FLUX.2-klein-4B
https://huggingface.co/Comfy-Org/flux2-klein-4B
>>579
nvfp8という規格は今のところはないので合ってる
実用的にfp4は精度落ちが激しいので新しく作ったのがnvfp4で、fp8はそのままで実用ラインにいるから新規格は今のところ作ってない
ただ、nvfp4のことをfp4と省略するのが多くて、その影響でfp8のことをnvfp8という存在しないという理解をする場合があるらしい
nvidiaの日本語公式HPでなんか間違えてる
https://blogs.nvidia.co.jp/blog/rtx-ai-garage-ces-2026-open-models-video-generation/
LTX-2が配布してるのはBF16とFP8とNVFP4(ただし、ファイル名はfp4と省略)
https://huggingface.co/Lightricks/LTX-2
これマイナス適用したら貧乳の乳揺れ抑制できるんだろうか
https://civitai.com/models/1581186?modelVersionId=2595899
>>503
公式モデル以外でよく使われてるのはこの辺やな
これらを使う際はWFのlora「lightx2v」っていうのをバイパスかけて無効化するんやで
Smooth Mix(t2v/i2v)
https://civitai.com/models/1995784
DeSiWa(i2v)
https://civitai.com/models/1981116