当前位置:AIGC资讯 > AIGC > 正文

Stable diffusion报Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variab

Stable diffusion 报 Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check 错误 及 排查解决

背景

先说一下我的显卡配置 3060Ti ,当刚开始报这个错误的时候,发现基本上很多博主说的都是在 launch.py 或者 webui-user.bat加一个参数 --precision full --no-half --skip-torch-cuda-test ,webui-user.bat是在 set COMMANDLINE_ARGS=后面加或者launch.py是在index_url = os.environ.get('INDEX_URL', "")加。
加上之后确实不报错了,也能启动起来,但是简单跑了一张图之后,发现cpu奇高,gpu却变化不大,而且速度特别慢,这用cpu跑图也太浪费我的3060Ti了

加参数治标不治本

发现问题

偶然间看到这篇文章,看报错信息和torch有关, 是不是我没用到GPU的torch,用的是cpu的


原文地址:https://blog.csdn.net/zcs2632008/article/details/127025294

安装步骤

因为之前环境安装的差不多了,能启动,cuda也安装了。所以重点是三四五步

一、NVIDIA一般电脑上都有

二、安装对应版本的CUDA,我是3060Ti对应的12.0版本,默认路径是在C盘下的

三、下载对应版本的cuDNN(它是GPU的加速库)压缩包,解压后会看到几个文件夹 ,内容放到CUDA对应的文件夹(网上很多教程)

四、安装GPU 版的torch 和torchversion 。主要版本不好找,我CUDA是12.0,但是现在最高的才11.8 ,所以用的11.8

可以参考别人的这篇文章:https://blog.csdn.net/qq_43575504/article/details/129559776

五、用命令卸载掉torch 和torchversion

因为最开始大家安装的方式不同,我是最普通的安装方式,有人是直接用的别人封装好的,我说一下我的接下来是怎么操作

把项目导入PyCharm 把torch和torchversion两个whl文件放到 \stable-diffusion-webui\venv\Lib\site-packages下面了 在控制台运行卸载命令和安装命令

先卸载再安装,路径改成自己的,别用我的路径

pip uninstall torch #卸载之前安装的torch
pip uninstall torchversion

pip install D:\ruanjian\Stable-Diffusion\stable-diffusion-webui\venv\Lib\site-packages\torch-2.0.1+cu1
18-cp310-cp310-win_amd64.whl

 pip install D:\ruanjian\Stable-Diffusion\stable-diffusion-webui\venv\Lib\site-packages\torchvision-0.1
5.2+cu118-cp310-cp310-win_amd64.whl

六、再启动

把之前添加的--precision full --no-half --skip-torch-cuda-test删掉
再启动

这时候就没有报错信息了,再跑图,也发现明显快了不少,而且cpu是正常的。
不熟悉可能会耽误几个小时,诸位多点耐心

深夜解决了这个问题,觉得有网友会有跟我一样的问题,所以就写了这篇文章,写的有些简略(每一步都能百度到),望海涵,不过知道问题所在了,就好解决了

更新时间 2023-11-14