当前位置:AIGC资讯 > AIGC > 正文

LLMs之Llama Coder:llama-coder的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama Coder:llama-coder的简介、安装和使用方法、案例应用之详细攻略

目录

llama-coder的简介

1、特点

llama-coder的安装和使用方法

1、安装

推荐硬件

本地安装

远程安装

模型

llama-coder的案例应用

llama-coder的简介

Llama Coder 是一个更好的自托管的 VS Code 插件,用来替代 Github Copilot。Llama Coder 使用 Ollama 和 codellama 提供在你硬件上运行的自动补全功能。最适合搭配 Mac M1/M2/M3 或 RTX 4090 使用。

GitHub地址:GitHub - ex3ndr/llama-coder: Replace Copilot local AI

VS Code 插件:Llama Coder - Visual Studio Marketplace

1、特点

>> 与 Copilot 一样出色
>> 快速。在消费级 GPU 上运行良好。建议使用 Apple Silicon 或 RTX 4090 以获得最佳性能。
>> 无遥测或跟踪
>> 适用于任何编程语言或自然语言。

llama-coder的安装和使用方法

1、安装

推荐硬件

>> 最低要求 RAM: 16GB 是最低要求,越多越好,因为即使是最小的模型也占用 5GB 的 RAM。

>> 最佳方式:配备 RTX 4090 的专用机器。在该机器上安装 Ollama,并在扩展设置中配置端点以卸载到该机器。

>> 次佳方式:运行在拥有足够 RAM 的 MacBook M1/M2/M3(RAM 越多越好,但额外 10GB 即可满足要求)。对于 Windows 笔记本:如果配备合适的 GPU,运行良好,但建议使用配备良好 GPU 的专用机器。如果你有一台专用的游戏 PC,效果非常好。

本地安装

在本地机器上安装 Ollama,然后在 VSCode 中启动扩展,一切应该正常工作。

远程安装

在专用机器上安装 Ollama,并在扩展设置中配置端点。Ollama 通常使用端口 11434 并绑定到 127.0.0.1,如需更改,你需要将 OLLAMA_HOST 设置为 0.0.0.0。

模型

目前 Llama Coder 仅支持 Codellama。模型通过不同方式量化,但我们的测试显示 q4 是运行网络的最佳方式。当选择模型时,模型越大,表现越好。始终选择你机器上能够支持的最大尺寸和最大量化的模型。默认模型为 stable-code:3b-code-q4_0,应该在任何地方都能运行,并优于大多数其他模型。

Name RAM/VRAM Notes stable-code:3b-code-q4_0 3GB codellama:7b-code-q4_K_M 5GB codellama:7b-code-q6_K 6GB m codellama:7b-code-fp16 14GB g codellama:13b-code-q4_K_M 10GB codellama:13b-code-q6_K 14GB m codellama:34b-code-q4_K_M 24GB codellama:34b-code-q6_K 32GB m

m - 在 MacOS 上运行缓慢
g - 在较旧的 NVidia 显卡(30 系列之前)上运行缓慢

llama-coder的案例应用

持续更新中……

总结

LLMs之Llama Coder:llama-coder的简介、安装和使用方法、案例应用之详细攻略



目录


llama-coder的简介


1、特点


llama-coder的安装和使用方法


1、安装


推荐硬件


本地安装


远程安装


模型


llama-coder的案例应用





llama-coder的简介


Llama Coder 是一个更好的自托管的 VS Code 插件,用来替代 Github Copilot。Llama Coder 使用 Ollama 和 codellama 提供在你硬件上运行的自动补全功能。最适合搭配 Mac M1/M2/M3 或 RTX 4090 使用。


GitHub地址:GitHub - ex3ndr/llama-coder: Replace Copilot local AI


VS Code 插件:Llama Coder - Visual Studio Marketplace



1、特点


>> 与 Copilot 一样出色
>> 快速。在消费级 GPU 上运行良好。建议使用 Apple Silicon 或 RTX 4090 以获得最佳性能。
>> 无遥测或跟踪
>> 适用于任何编程语言或自然语言。



llama-coder的安装和使用方法


1、安装


推荐硬件


>> 最低要求 RAM: 16GB 是最低要求,越多越好,因为即使是最小的模型也占用 5GB 的 RAM。


>> 最佳方式:配备 RTX 4090 的专用机器。在该机器上安装 Ollama,并在扩展设置中配置端点以卸载到该机器。


>> 次佳方式:运行在拥有足够 RAM 的 MacBook M1/M2/M3(RAM 越多越好,但额外 10GB 即可满足要求)。对于 Windows 笔记本:如果配备合适的 GPU,运行良好,但建议使用配备良好 GPU 的专用机器。如果你有一台专用的游戏 PC,效果非常好。


本地安装


在本地机器上安装 Ollama,然后在 VSCode 中启动扩展,一切应该正常工作。



远程安装


在专用机器上安装 Ollama,并在扩展设置中配置端点。Ollama 通常使用端口 11434 并绑定到 127.0.0.1,如需更改,你需要将 OLLAMA_HOST 设置为 0.0.0.0。




模型


目前 Llama Coder 仅支持 Codellama。模型通过不同方式量化,但我们的测试显示 q4 是运行网络的最佳方式。当选择模型时,模型越大,表现越好。始终选择你机器上能够支持的最大尺寸和最大量化的模型。默认模型为 stable-code:3b-code-q4_0,应该在任何地方都能运行,并优于大多数其他模型。


Name
RAM/VRAM
Notes
stable-code:3b-code-q4_0
3GB
codellama:7b-code-q4_K_M
5GB
codellama:7b-code-q6_K
6GB
m
codellama:7b-code-fp16
14GB
g
codellama:13b-code-q4_K_M
10GB
codellama:13b-code-q6_K
14GB
m
codellama:34b-code-q4_K_M
24GB
codellama:34b-code-q6_K
32GB
m

m - 在 MacOS 上运行缓慢
g - 在较旧的 NVidia 显卡(30 系列之前)上运行缓慢





llama-coder的案例应用


持续更新中……

更新时间 2024-08-23