在Ubuntu服务器上使用ComfyUI时,大家一般都会有下载模型的需求,比如想要下载Flux-Kentext-dev模型。但是常常会发现下载不下来,一般是连接不上hugging_face服务器,这个时候就需要使用科学上网,而服务器上也不太容易实现科学上网,有的服务器属于内部服务器,也不许翻墙。
这个时候就需要其他的手段来实现模型的下载了。这里我介绍两种方式:
- 使用huggingface-hub库来下载
- 使用国内的魔塔社区来下载
1.使用huggingface-hub
首先我们需要在我们的python环境中安装 huggingface-hub 库,这是我们使用 huggingface-cli 命令的基础:
pip install --upgrade huggingface-hub
接着,我们可以在命令行执行下列命令来使用代理,也就是在镜像站来执行下载:
export HF_ENDPOINT=https://hf-mirror.com
1.1 认证和登录
如果你需要下载私有模型,那你需要先登录(许多模型都需要登录才能下载),输入以下命令来登录:
huggingface-cli login
接着按照提示来输入你的 Huggingface Access Token。你可以在Hugging Face 网站的个人设置中找到它。
使用以下命令来检查是否登录成功:
huggingface-cli whoami
退出登录:
huggingface-cli logout
1.2 下载模型和文件
我们使用 hf download 命令来下载。
- 下载整个仓库到指定目录
hf download 仓库ID --local-dir 本地文件夹路径
- 下载单个文件
如果想下载单个文件,只需要在命令末尾加上文件名
hf download 仓库ID 文件名
比如,你想要下载Flux-Kontext模型,可以使用以下命令:
hf download black-forest-labs/FLUX.1-Kontext-dev flux1-kontext-dev.safetensors
2.使用魔塔社区下载
在国内,有的模型使用魔塔社区下载比较好,在国内支持比较好,而且使用比较简单。
这里我只介绍使用命令行下载的方式。
首先,你得安装 ModelScope 库:
pip install modelscope
然后,就可以通过命令行下载了。
- 下载完整模型库
modelscope download --model black-forest-labs/FLUX.1-Kontext.dev
- 下载单个文件到指定本地文件夹
modelscope download --model black-forest-labs/FLUX.1-Kontext-dev README.md --local_dir ./dir
- 指定下载多个文件
modelscope download --model 'Qwen/Qwen2-7b' tokenizer.json config.json
- 指定下载某些文件
modelscope download --model 'Qwen/Qwen2-7b' --include '*.safetensors'
- 过滤指定文件
modelscope download --model 'Qwen/Qwen2-7b' --exclude '*.safetensors'
当然,我这里只是列举了一些常用的命令,更多详细的命令,可以到指定的官方文档查看。
Comments NOTHING