Wan 2.1 本地部署教程!直接在 ComfyUI 中运行,完全免费开源!
转自:零度博客,供学习参考! WAN2.1 是一套全面开放的视频生成模型,它突破了视频生成的界限。1.3B型号仅需要8.19 GB VRAM,使其与几乎所有消费级GPU兼容。它可以在大约4分钟内在RTX 4090上生成5秒的480p视频(无需量化等优化技术)。它的性能甚至可以与某些封闭式模型相媲美。 在 SOTA性能方面,始终优于多个基准测试的现有开源模型,并且可以和最先进的闭源商业模型相媲美! Wan 2.1 视频生成模型本地部署: 文字转视频 1、 下载 ComfyUI 一键安装包 :【 点击前往 】,支持 Windows 和 mac 系统 2、 下载文本编码器和 VAE : umt5_xxl_fp8_e4m3fn_scaled.safetensors 放入:ComfyUI/models/text_encoders/ wan_2.1_vae.safetensors 放入:ComfyUI/models/vae/ 3、 下载视频生成模型 【 点击下载 】 注意:建议使用 fp16 版本而不是 bf16 版本,因为它们会产生更好的结果。 质量等级(从高到低):fp16 > bf16 > fp8_scaled > fp8_e4m3fn 这些文件位于:ComfyUI/models/diffusion_models/ 这些示例使用 16 位文件,但如果内存不足,则可以使用 fp8 文件。 4、文字转视频工作流:只需将 wan2.1_t2v_1.3B_fp16.safetensors 文件(将其放入:ComfyUI/models/diffusion_models/)。您也可以将其与 14B 模型一起使用。并下载 Json 格式的工作流 视频播放器 00:00 00:05 进阶篇: 图像转视频 此工作流程需要 wan2.1_i2v_480p_14B_fp16.safetensors 文件(将其放入:ComfyUI/models/diffusion_models/)和 clip_vision_h.safetensors 放入:ComfyUI/models/clip_vision/ 请注意,此示例仅生成 512×512 的 33 帧,因为我希望它易...