当前位置:AIGC资讯 > AIGC > 正文

使用llama.cpp在本地搭建vicuna 13B语言模型

有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置 3900X 32G内存。

https://github.com/mps256/vicuna.ps1

更新时间 2023-12-25