当前位置:AIGC资讯 > AIGC > 正文

Ollama&llama

Olllama

直接下载ollama程序,安装后可在cmd里直接运行大模型;

llama 3

meta 开源的最新llama大模型;

下载运行

1 ollama

ollama run llama3

2 github

下载仓库,需要linux环境,windows可使用wsl;

接受许可协议。获取下载链接
仓库运行download.sh

3.quickstart
3 huggingface

meta
接受协议,访问模型文件,(不知道是不是affiliation填none被拒绝了)

补充

1.windows访问wsl文件

\\wsl$ 

查看文件

2. wsl访问windows
lwsl文件系统mnt已挂载windows盘符,不过需要在linux 里(terminal)访问,使用cp复制等。

3. 使用ip网络传输文件

#wsl terminal
#查看IP地址
ip addr 
# 复制windows文件至wsl
scp [-r]  file/dir hostname@ip_addr:/home/ 

# windows terminal
scp [-r] hostname@ip_addr:/home/ D:\rev
wsl nvidia cuda
似乎默认能直接访问gpu,但cuda还需安装nvidia-cuda-toolkit

5.模型后缀

Instruct is fine-tuned for chat/dialogue use cases.
Example: ollama run llama3 / ollama run llama3:70b
Pre-trained is the base model.
Example: ollama run llama3:text / ollama run llama3:70b-text

更新时间 2024-07-10