让AI知识触手可及

首页 » 【产品体验】本地搭建混元HunyuanVideo量化版体验文生视频功能
见字如面,我的老友!这里是 17AITech,陪你深挖 AI,奋进科技浪潮。

背景

近期,OpenAI发布的Sora文生视频技术引起了广泛关注,这一技术能够将文本描述直接转化为高质量的视频内容,极大地推动了人工智能在视频生成领域的进步。在此背景下,国内众多大型科技企业纷纷响应,开展文生视频技术的研发与开源工作。
本章内容,我们将介绍在本地家用机上部署HunyuanVideo量化版本的方法。

HunyuanVideo模型简介

Hunyuan-Video是由腾讯推出的一款高质量的中文通用视频生成模型。该模型支持中文输入提示(Prompt),采用了图像-视频联合训练策略,并通过一系列精细的数据过滤技术,确保了视频的技术质量和审美吸引力。

资料

问题

  • 问题1:Hunyuan-Video所需要的GPU显存较高,家用电脑无法满足。
Model Setting (height/width/frame) GPU Peak Memory
HunyuanVideo 720px1280px129f 60GB
HunyuanVideo 544px960px129f 45GB
  • 问题2:混元的体验地址,每位用户每天只能试用6次。

量化版本

基于以上的问题,Github上也有热心用户提供了量化版本,虽然效果不如非量化版本,但是至少可以在本地家用机上运行体验。接下来,我们将介绍本地部署方法。

环境介绍

  • 显卡: RTX 4080 Super 16GB
  • 内存: 32GB
  • 系统: Windows11 + WSL + Ubuntu22.04

部署方法

1. 创建虚拟环境

conda create -n comfyui python==3.10.9

conda activate comfyui

2. 安装最新的pytorch

pip3 install torch torchvision torchaudio

3. 安装ComfyUI

因为量化版本模型基于ComfyUI,所以首先需要下载ComfyUI以及安装相关依赖。

# 下载ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git

# 进入ComfyUI文件夹
cd ComfyUI

# 安装依赖
pip install -r requirements.txt

4. 下载量化版本模型

量化版本在HunyunVideoReadme说明中有介绍,这里不做赘述。

# 切换至comfyui的custom_nodes文件夹
cd custom_nodes  
# 下载ComfyUI-HunyuanVideoWrapper量化版本
git clone https://github.com/kijai/ComfyUI-HunyuanVideoWrapper.git

5. 下载tokenizer以及模型权重文件

根据量化版本的README说明,我们还需要下载tokenizer以及模型权重文件,具体方法如下:

5.1 安装Huggingface的命令行工具

python -m pip install "huggingface_hub[cli]"

5.2 下载clip-vit-large-patch14

# 使用huggingface-cli下载
HF_ENDPOINT=https://hf-mirror.com huggingface-cli download openai/clip-vit-large-patch14 --local-dir ./clip-vit-large-patch14

下载完毕之后,将文件移动至ComfyUI/models/clip/clip-vit-large-patch14

5.3 下载tokenizer

HF_ENDPOINT=https://hf-mirror.com huggingface-cli download Kijai/llava-llama-3-8b-text-encoder-tokenizer --local-dir ./llava-llama-3-8b-text-encoder-tokenizer

下载完毕之后,将文件移动至ComfyUI/models/LLM/llava-llama-3-8b-text-encoder-tokenizer

5.4 下载量化的权重文件

HF_ENDPOINT=https://hf-mirror.com huggingface-cli download Kijai/HunyuanVideo_comfy --local-dir ./Kijai/HunyuanVideo_comfy

下载完毕之后:

  • 将文件 hunyuan_video_720_*.safetensors 移动至 ComfyUI/models/diffusion_models
  • 将文件 hunyuan_video_vae_*.safetensors 移动至 ComfyUI/models/vae

备注:

  • 此处也可以直接浏览器访问https://hf-mirror.com/Kijai/HunyuanVideo_comfy/tree/main ,只下载所需要的权重文件即可。
剩余内容需解锁后查看

您需要付费解锁才能查看当前内容

已有6人解锁查看
已付费?登录刷新
声明:一起AI技术所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。
原创不易,内容版权受保护,感谢您的尊重与支持。

发表评论

Picture of Dongming
Dongming
见天地,见众生,见自己。

分类文章

推荐活动

推荐文章

上交大 SciMaster 团队新作:一个「AI 物理博士」的诞生
卢宗青团队新作:人类先验打底,统一动作对齐,通用机器人模型正在落地
第五届OceanBase数据库大赛收官:北邮「编程高手」赛队夺冠,探索AI原生数据库
人大高瓴赵鑫团队新作:先拆掉 RLVR,再重建推理模型训练
AI 医疗还在比进度,百川已在比高度
北大卢宗青团队新作:超 70% 实机成功率,支持语言指令的功能性抓取系统
清华孙茂松团队 × 深言科技:以解释作为训练信号,让 8B 模型在幻觉检测上反超闭源大模型
为什么深圳硬件圈都在谈论千问?
上海AI Lab胡侠:KV Cache压缩之后,可让价格2万美金的GPU发挥出20万美金的价值 | GAIR 2025
GAIR 2025 世界模型分论坛:从通用感知到视频、物理世界模型的百家争鸣
滚动至顶部