AMD显卡在Windows上(非WSL)安装使用ComfyUI

NVIDIA的CUDA现在在Windows上已经运行得很好了,周边程序的支持也很完善。AMD的ROCm虽然同样在Windows上推出,但周边支持却非常糟糕,PyTorch等官方都没有发布最新的Windows版ROCm支持。不过AMD自己有PyTorch分支,虽然麻烦,但至少能用。

前期准备

首先,你需要一块支持最新ROCm的显卡,可以在官方支持列表中查看支持的显卡。

然后,安装最新的显卡驱动,在官方驱动下载页面中搜索下载即可。

安装PyThon

为了方便管理,这里使用Miniconda来管理Python虚拟环境,安装方法参见Windows安装Miniconda教程

安装之后需要新建虚拟环境,并安装Python 3.12(目前AMD的PyTorch支持的版本)。打开终端并执行如下命令:

conda create -n comfyui python=3.12

comfyui是虚拟环境名称。

然后激活虚拟环境,后面的命令都是在此虚拟环境下执行的

conda activate comfyui

安装ROCm与PyTorch的PyTorch包

然后需要安装ROCm相关包和PyTorch包,所有包都在https://repo.radeon.com/rocm/windows/rocm-rel-7.1.1/(对应ROCm 7,如果有问题,可以上一级(https://repo.radeon.com/rocm/windows/)找到其他版本。

包可以下载下来安装,下面的演示是直接网络安装的,如果下载下来安装,把网址替换成对应的路径即可。

安装ROCm包

ROCm包在仓库中是rocm-0.1.dev0.tar.gz文件,因此需要下载下来并解压出其中的文件。然后在终端中进入对应的目录执行命令:

cd /path/to/ROCm
python setup.py install

安装ROCm SDK相关包

ROCm包在仓库中是.whl格式,因此可以直接用pip命令安装。

分别安装rocm_sdk_corerocm_sdk_libraries_custom

pip install https://repo.radeon.com/rocm/windows/rocm-rel-7.1.1/rocm_sdk_core-0.1.dev0-py3-none-win_amd64.whl
pip install https://repo.radeon.com/rocm/windows/rocm-rel-7.1.1/rocm_sdk_libraries_custom-0.1.dev0-py3-none-win_amd64.whl

安装PyTorch包

PyTorch包在仓库中同样是.whl格式,也可以用pip命令直接安装:

pip install https://repo.radeon.com/rocm/windows/rocm-rel-7.1.1/torch-2.9.0%2Brocmsdk20251116-cp312-cp312-win_amd64.whl
pip install https://repo.radeon.com/rocm/windows/rocm-rel-7.1.1/torchaudio-2.9.0%2Brocmsdk20251116-cp312-cp312-win_amd64.whl
pip install https://repo.radeon.com/rocm/windows/rocm-rel-7.1.1/torchvision-0.24.0%2Brocmsdk20251116-cp312-cp312-win_amd64.whl

简单测试

如果上面的安装都没有失败,那么可以用下面的命令来简单测试是否成功:

python -c "import torch; print('\n'.join(str(torch.cuda.get_device_properties(i)) for i in range(torch.cuda.device_count())) if torch.cuda.is_available() else 'No CUDA device')"

如果在结果中看到AMD的显卡,即成功安装并启用了。

运行ComfyUI

安装Git

因为要使用ComfyUI的GitHub仓库,所以要安装Git。可使用如下命令来安装:

winget install Git.Git

如果无法访问,需要使用特殊上网方式,需要先在终端管理员下运行:

winget settings --enable ProxyCommandLineOptions

然后执行安装:

winget install --proxy http://username:password@host:port Git.Git

http://username:password@host:port就是特殊上网的HTTP服务器(也支持HTTPS)。

安装完Git后,需要对Git也设置特殊上网方式:

git config --global set http.https://github.com.proxy protocol://username:password@host:port
git config --global set https.https://github.com.proxy protocol://username:password@host:port

其中--global表示全局设置;https://github.com就是要特殊上网的网站,后面的.proxy不能改;protocol://username:password@host:port就是特殊上网的服务器,其中协议protocal支持HTTP(http)、HTTPS(https)、SOCKS5(socks5)等。

克隆仓库

找一个放置ComfyUI的路径(假设是/path/to/comfyui_root),然后克隆ComfyUI的GitHub仓库:

cd /path/to/comfyui_root
git clone https://github.com/comfyanonymous/ComfyUI.git

后续操作需要进入克隆的ComfyUI目录

cd /path/to/comfyui_root/ComfyUI

安装依赖

在ComfyUI目录下目录下直接使用pip命令安装依赖:

pip install -r requirements.txt

如果速度太慢,可以使用清华镜像:

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

下载模型

当然,直接运行ComfyUI是什么也干不了的,我们还需要下载模型。

可以去一些模型网站,如Hugging FaceCivitaiTensorArt等去寻找下载。

我们根据模型类型,放到ComfyUI目录下的models中的对应目录下,比如基础模型放到models/checkpoints下,LoRA放到models/loras目录下。

运行

下载好模型到对应目录之后,就可以运行了。在ComfyUI目录下,运行main.py即可:

python main.py

其他

ComfyUI的具体使用方法,网上有很多教程,ComfyUI还支持很多插件,这里就不一一说明了,有兴趣的请自行搜索相关资料。

卸载

只需要直接删除虚拟环境:

conda env remove -n comfyui

然后直接删除ComfyUI的目录即可。

其他配置项,因为不是专门针对ComfyUI的而是通用的,可以不用修改。如果以后不再使用,可以卸载Git和Miniconda。

赞赏

微信赞赏支付宝赞赏