这个tutorial的契机是yy突然看到了一个workshop 所以类似于一周大作业的形式,输入command输出使用了自动驾驶哪些模块,代码在这里 所以就干一干,顺便写一个tutorial给大家参考和教程 引申更多的应用
参考资料:
https://github.com/facebookresearch/codellama, https://github.com/facebookresearch/llama 模型申请地址:https://ai.meta.com/llama/ → 然后按download,填写完后 就会收到两封邮件 https://github.com/oobabooga/text-generation-webui 写tutorial期间的代码:https://github.com/KTH-RPL/DriveCmd_LLM所有模型参数和所需要的GPU并行,注意这只是模型load占用的memory 如果token或者batch size较大 也需要很多GPU显存,表格下方会说明每个之间的区别,MP是指并行GPU的数量 默认是多少,所有模型我都在 这边服务器的A100试过 Size已经是乘过数量的了 是总和需要的memory
Model Size MP code-7B ~12.5G 1 code-13B 24G 2 code-34B 63G 4 7b-chat ~12.5G 1 13b-chat 24G 2 70b-chat ~160G 8 7B, 13B, 34B 指示模型参数量 chat 指示经过了对话的fine-tuned 【 llama2论文原文:a fine-tuned version of Llama 2 that is optimized for dialogue use cases】 code 指示此llama版本经过了code数据集的训练,can use text prompts to generate and discuss code. 此处为 官方blog温馨提示 下列内容和 此 https://github.com/KTH-RPL/DriveCmd_LLM README 有重复:里面包含了example和我们写的prompt流程等 and yy尝试的chatgpt api那边的script
1. 申请下载模型
具体如图:
https://ai.meta.com/llama/ 点击download 填写资料,勾上所有的东西 接受terms 然后点continue 大概10分钟内能收到两封邮件,告诉你可用的权重和其下载地址【注意!这个地址有限制比如下载超过3次/24小时后 请重新返回步骤一】2. 模型部署
正如前言中提到的,大部分本地自己用的电脑 可能只能跑最小的模型也就是7b的 GPU的占用率大概是12G,如下图为我运行repo里的代码时占用截图 【上一个A100试了一下 这么一看我本机3090 也带不动】
内存的增大原因:
prompt 长短 也就是你给模型的输入文字 可能很多 【这也是为什么chatgpt按token收费 输出的语句长短 也就是模型给你的回答 【我这因为让他解释他的输出了 所以也比较长回归正题,接下来是clone两边的代码,一个是code一个是llama 前者经过了八股文、leetcode训练【我是这么理解的 hhh 通俗易懂】 后者是原生态
https://github.com/facebookresearch/llama, 注意复制链接的时候 也别给错了 看对邮件给 https://github.com/facebookresearch/codellama 同上理以下为演示截图
git clone 对应代码 进入文件夹 运行download.sh copy 邮件里收到的下载链接【第一次没看仔细 一直在填自己的email 可还行 选择下载什么模型,注意全部下载的话 可能比较大 建议硬盘空间不够的 选一个最小的 先试试3. 模型运行
这一步官方的README写的挺不错的,依赖很少 照着pip install -r requirements.txt
就行,基本无障碍,最好是建一个conda的环境,别和系统混了,此处为运行示例:
torchrun --nproc_per_node 1 example_completion.py \
--ckpt_dir CodeLlama-7b/ \
--tokenizer_path CodeLlama-7b/tokenizer.model \
--max_seq_len 128 --max_batch_size 4
截图运行及GPU占用:
正常我们想要的应该是chat 聊天形式的所以选择以下模型会有更好的效果:
Model Size MP CodeLlama-7b-Instruct ~12.5G 1 CodeLlama-13b-Instruct 24G 2 CodeLlama-34b-Instruct 63G 4 llama-2-7b-chat ~12.5G 1 llama-2-13b-chat 24G 2 llama-2-70b-chat ~160G 84. More
可以参考 前言中我提到的task 给出的一个结果调用,这里是任务的报告pdf:https://arxiv.org/abs/2311.08206 更方便大家直接选择和对比,对应代码在 https://github.com/KTH-RPL/DriveCmd_LLM
还有就是如果想自己部署一个chatgpt,或者是在苹果系统下(which 内存就是显卡内存 可以参考这个b站视频:苹果M2 Ultra:AI大模型的新希望
自己部署一个chatgpt参考code:
llama or codellama 作为model和basic text generation web UI 作为一个web的界面 这样才能开启正常对话, https://github.com/oobabooga/text-generation-webui部署后的示意图:
同时这里面也提到了其他的大语言模型 可以尝试的:Multiple model backends: transformers, llama.cpp, ExLlama, ExLlamaV2, AutoGPTQ, GPTQ-for-LLaMa, CTransformers, AutoAWQ
还有一些vision assistance的模型可以一起,免费版chatgpt 4.0 (但是试了一下即使是70B的 效果在我们的任务上也没有 3.5API调用的高,果然还是钱的问题
其中有一个大视觉语言模型 可以关注:https://github.com/haotian-liu/LLaVA
5. Llama2 论文速读
主要是记录一下一些细节 比如模型和模型之间的不同,fine-tuned的实现等。
首先是关于llama2-chat的训练,如下图:得到llama2后 经过RLHF 步骤得到的chat模型 【RLHF 是一种模型训练过程,应用于微调的语言模型,以进一步使模型行为与人类偏好和指令遵循保持一致。】
下图说明了 训练的一些细节:
token是指将所有number 拆分成独立的digits 然后使用use bytes 去decompose 未知的UTF-8,总的词汇是32k token 预训练 2T 的token后 模型也没有饱和