5chSummary

1. https://huggingface.co/

No.69: 2026/01/14(水) 02:26:55.67 ID:cJj/qY/I0

Sharpという技術で画像から3D画像を作って動かして、ぐちゃった部分をこのloraで修復する事で別視点の画像を作れるっぽい
https://huggingface.co/dx8152/Qwen-Edit-2511-Sharp
https://www.youtube.com/watch?v=9Vyxjty9Qao

No.117: 2026/01/14(水) 09:27:46.71 ID:zQaspQh/a

>>107
一応Wan 2.2も非公式にnvfp4化したモデルは出とるで
https://huggingface.co/GitMylo/Wan_2.2_nvfp4/tree/main
FP8モデルより25%速くなるようやな

No.138: 2026/01/14(水) 11:36:42.07 ID:/W1QQKE30

LLMで高性能なGLM4-7出してるZ.aiがGLM-Image出したらしい

https://x.com/Zai_org/status/2011247591825068314

HFにもう来てる
https://huggingface.co/zai-org/GLM-Image
https://raw.githubusercontent.com/zai-org/GLM-Image/refs/heads/main/resources/show_case_t2i.jpeg
https://raw.githubusercontent.com/zai-org/GLM-Image/refs/heads/main/resources/show_case_i2i.jpeg

No.231: 2026/01/14(水) 15:54:28.62 ID:ngCdK63r0

>>225
whlあるでー
https://huggingface.co/ussoewwin/Flash-Attention-2_for_Windows/tree/main
日本人の人が公開してくれてはる

No.249: 2026/01/14(水) 17:25:43.37 ID:NbTey5r40

nvfp4使ってみたい50xxのニキはComfyUIフォルダで.\venv\Scripts\activateして↓でええんやないかな
pip3 install -U torch==2.9.1+cu130 torchvision==0.24.1+cu130 torchaudio==2.9.1+cu130 –index-url https://download.pytorch.org/whl/cu130

pip install -U triton-windows

curl -L https://github.com/woct0rdho/SageAttention/releases/download/v2.2.0-windows.post3/sageattention-2.2.0+cu130torch2.9.0.post3-cp39-abi3-win_amd64.whl > sageattention-2.2.0+cu130torch2.9.0.post3-cp39-abi3-win_amd64.whl
pip uninstall sageattention
pip install sageattention-2.2.0+cu130torch2.9.0.post3-cp39-abi3-win_amd64.whl

curl -L https://huggingface.co/ussoewwin/Flash-Attention-2_for_Windows/resolve/main/flash_attn-2.8.3%2Bcu130torch2.9.1cxx11abiTRUE-cp312-cp312-win_amd64.whl?download=true > flash_attn-2.8.3%2Bcu130torch2.9.1cxx11abiTRUE-cp312-cp312-win_amd64.whl
pip uninstall flash_attn
pip install flash_attn-2.8.3+cu130torch2.9.1cxx11abiTRUE-cp312-cp312-win_amd64.whl

No.298: 2026/01/14(水) 21:47:17.05 ID:gDN614Yq0

>>288
QI2512は高速化LoRA使っても意外と画質落ちないし4step LoRAならZITより速いまであるよ
リアル系しか試してないけど

https://huggingface.co/lightx2v/Qwen-Image-2512-Lightning/tree/main

ワイは普段は8step LoRAでやっているけどPromptチェックとかは4stepでも十分
あとZITよりPromptにはよく反応する気がする

No.335: 2026/01/15(木) 06:06:07.14 ID:7H/A/c9E0

LTX2のVAEが間違ってたとかで公式やkijaiが修正版を上げ直してるんやな
https://huggingface.co/Lightricks/LTX-2/commits/main
https://huggingface.co/Kijai/LTXV2_comfy/commits/main

No.529: 2026/01/15(木) 21:55:20.45 ID:2eQbrEbz0

LTX-2の公式チェックポイント配布のファイル名が「ltx-2-19b-dev-fp4」
一方でモデルカードの説明を見ると「The full model in nvfp4 quantization」
https://huggingface.co/Lightricks/LTX-2?utm_source=chatgpt.com

「nvfp4」を略して「fp4」とファイル名を付けてるからだいぶ混乱してるけど
これからは「fp4」といったらもっぱら「nvfp4」のことを指すようになっていくのでGPTも察してくれるようになるはず

No.593: 2026/01/16(金) 02:17:47.15 ID:SfPp+Cr60

Flux.2-klein 4bのdiffusion_modelsが7.5GBでtext_encoderが8GB(qwen_3_4b)
9bと4bが出て4bだけapache LICENSE-2.0
これテキストエンコーダー強化したSDXLくらいの立ち位置狙ってんのかな

https://huggingface.co/black-forest-labs/FLUX.2-klein-4B
https://huggingface.co/Comfy-Org/flux2-klein-4B

No.627: 2026/01/16(金) 08:38:02.86 ID:GbbgRtP00

>>579
nvfp8という規格は今のところはないので合ってる
実用的にfp4は精度落ちが激しいので新しく作ったのがnvfp4で、fp8はそのままで実用ラインにいるから新規格は今のところ作ってない

ただ、nvfp4のことをfp4と省略するのが多くて、その影響でfp8のことをnvfp8という存在しないという理解をする場合があるらしい
nvidiaの日本語公式HPでなんか間違えてる
https://blogs.nvidia.co.jp/blog/rtx-ai-garage-ces-2026-open-models-video-generation/

LTX-2が配布してるのはBF16とFP8とNVFP4(ただし、ファイル名はfp4と省略)
https://huggingface.co/Lightricks/LTX-2

2. https://mega.nz/

3. https://civitai.com/

No.308: 2026/01/14(水) 22:19:05.62 ID:FcfWS+n10

これマイナス適用したら貧乳の乳揺れ抑制できるんだろうか
https://civitai.com/models/1581186?modelVersionId=2595899

No.506: 2026/01/15(木) 20:39:36.26 ID:faVmLthG0

>>503
公式モデル以外でよく使われてるのはこの辺やな
これらを使う際はWFのlora「lightx2v」っていうのをバイパスかけて無効化するんやで

Smooth Mix(t2v/i2v)
https://civitai.com/models/1995784

DeSiWa(i2v)
https://civitai.com/models/1981116