模型参数支持 GPT-4 和 GPT-3.5-turbo ,实测使用其他模型均会以默认的 3.5 处理(对比 OpenAI API 的返回结果,猜测应该是最早的版本 GPT-4-0314 和 GPT-3.5-turbo-0301 )
获取 Copilot Token
首先,你的账号需要开通 Github Copilot 服务
获取 Github Copilot Plugin Token 的方式目前有两种方式:
如何使用
安装并启动 copilot-gpt4-service 服务,如本地启动后,API默认地址为:http://127.0.0.1:8080; 获取你的 GitHub 账号 Github Copilot Plugin Token(详见下文); 安装第三方客户端,如:ChatGPT-Next-Web,在设置中填入 copilot-gpt4-service 的 API 地址和 Github Copilot Plugin Token,即可使用 GPT-4 模型进行对话。最佳实践方式
经社区验证和讨论,最佳实践方式为:
不建议方式
以公共服务的方式提供接口多个 Token 在同一个 IP 地址进行请求, 容易被判定为异常行为 同客户端 Web(例如 ChatGPT-Next-Web) 以默认 API 以及 API Key 的方式提供公共服务同一个 Token 请求频率过高, 容易被判定为异常行为 Serverless 类型的提供商进行部署服务生命周期短, 更换 IP 地址频繁, 容易被判定为异常行为 其他滥用行为或牟利等行为。客户端
使用 copilot-gpt4-service,需要配合第三方客户端,目前已测试支持以下客户端:
服务端
copilot-gpt4-service 服务的部署方式目前包含 Docker 部署、源码部署、Kubernetes 部署实现
config.env 默认配置项如下
HOST=localhost # 服务监听地址
PORT=8080 # 服务监听端口
CACHE=true # 是否启用持久化
CACHE_PATH=db/cache.sqlite3 # 持久化缓存的路径(仅当 CACHE=true 时有效)
DEBUG=false # 是否启用调试模式,启用后会输出更多日志
LOGGING=true # 是否启用日志
LOG_LEVEL=info # 日志级别,可选值:panic、fatal、error、warn、info、debug、trace(注意:仅当 LOGGING=true 时有效)
部署:
docker run -d \
--name copilot-gpt4-service \
--restart always \
-p 8080:8080 \
-e HOST=0.0.0.0 \
aaamoon/copilot-gpt4-service:latest
https://www.jdon.com/71776.html