关于服务器上使用ComfyUI时模型的下载方式

Frieren 发布于 2025-09-02 137 次阅读


在Ubuntu服务器上使用ComfyUI时,大家一般都会有下载模型的需求,比如想要下载Flux-Kentext-dev模型。但是常常会发现下载不下来,一般是连接不上hugging_face服务器,这个时候就需要使用科学上网,而服务器上也不太容易实现科学上网,有的服务器属于内部服务器,也不许翻墙。

这个时候就需要其他的手段来实现模型的下载了。这里我介绍两种方式:

  • 使用huggingface-hub库来下载
  • 使用国内的魔塔社区来下载

1.使用huggingface-hub

首先我们需要在我们的python环境中安装 huggingface-hub 库,这是我们使用 huggingface-cli 命令的基础:

pip install --upgrade huggingface-hub

接着,我们可以在命令行执行下列命令来使用代理,也就是在镜像站来执行下载:

export HF_ENDPOINT=https://hf-mirror.com

1.1 认证和登录

如果你需要下载私有模型,那你需要先登录(许多模型都需要登录才能下载),输入以下命令来登录:

huggingface-cli login

接着按照提示来输入你的 Huggingface Access Token。你可以在Hugging Face 网站的个人设置中找到它。

使用以下命令来检查是否登录成功:

huggingface-cli whoami

退出登录:

huggingface-cli logout

1.2 下载模型和文件

我们使用 hf download 命令来下载。

  • 下载整个仓库到指定目录
hf download 仓库ID --local-dir 本地文件夹路径
  • 下载单个文件

如果想下载单个文件,只需要在命令末尾加上文件名

hf download 仓库ID 文件名

比如,你想要下载Flux-Kontext模型,可以使用以下命令:

 hf download black-forest-labs/FLUX.1-Kontext-dev flux1-kontext-dev.safetensors

2.使用魔塔社区下载

在国内,有的模型使用魔塔社区下载比较好,在国内支持比较好,而且使用比较简单。

这里我只介绍使用命令行下载的方式。

首先,你得安装 ModelScope 库:

pip install modelscope

然后,就可以通过命令行下载了。

  • 下载完整模型库
modelscope download --model black-forest-labs/FLUX.1-Kontext.dev
  • 下载单个文件到指定本地文件夹
modelscope download --model black-forest-labs/FLUX.1-Kontext-dev README.md --local_dir ./dir
  • 指定下载多个文件
    modelscope download --model 'Qwen/Qwen2-7b' tokenizer.json config.json
  • 指定下载某些文件
    modelscope download --model 'Qwen/Qwen2-7b' --include '*.safetensors'
  • 过滤指定文件
    modelscope download --model 'Qwen/Qwen2-7b' --exclude '*.safetensors'

当然,我这里只是列举了一些常用的命令,更多详细的命令,可以到指定的官方文档查看。

此作者没有提供个人介绍。
最后更新于 2025-09-02