当前位置:AIGC资讯 > AIGC > 正文

(2023.12.6)解决部署privateGPT中,安装依赖llama-cpp-python失败。

问题描述-1(gcc编译器问题)

CMake Error: CMAKE_C_COMPILER not set, after EnableLanguage CMake Error: CMAKE_CXX_COMPILER not set, after EnableLanguage -- Configuring incomplete, errors occurred!
出现这个问题是关于设置C和C++编译器的问题,

解决思路

因为我是新电脑没有安装过gcc相关编辑器,故重新下载了 Visual Studio tool 2022
选择安装。

安装好后重新运行llama-cpp-python依赖

pip install --force-reinstall --no-cache-dir llama-cpp-python

结果还是显示失败

问题描述-2(No CUDA toolset found)

新问题核心问题是
-- cuBLAS found CMake Error at C:/Users/Administrator/AppData/Local/Temp/pip-build-env-lr0mlpl6/normal/Lib/site-packages/cmake/data/share/cmake-3.27/Modules/CMakeDetermineCompilerId.cmake:503 (message): No CUDA toolset found.
提示没有找到CUDA工具集,但是电脑已经是安装了CUDA 12.1和配套cudnn,

解决思路

看问题是cmake没法找到cuda 工具集,找了相关资料,说是要把NVIDIA GPU Computing Toolkit目录MSBuildExtensions下面的文件复制到Microsoft Visual Studio文件目录下的BuildCustomizations下去。
完整路径如下:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1\extras\visual_studio_integration\MSBuildExtensions

C:\Program Files (x86)\Microsoft Visual Studio\2022\BuildTools\MSBuild\Microsoft\VC\v170\BuildCustomizations

这里因为每个人安装的版本不同,需要找到合适的Vxx目录下面才有BuildCustomizations文件,我是22版本,所以是V170。找到BuildCustomizations文件夹后直接复制进去。

替换完成,再次运行

pip install --force-reinstall --no-cache-dir llama-cpp-python


显示安装成功,解决问题!

更新时间 2024-02-09