当前位置:AIGC资讯 > AIGC > 正文

LLM-20230225:LLaMA(大羊驼)【参数量: 70 亿、130 亿、330 亿、650 亿】【旨在推动 LLM 领域的小型化、平民化研究】【Meta】

Meta AI 同时在其官方发布了论文《LLaMA: Open and Efficient Foundation Language Models》

 源码:https://github.com/facebookresearch/llama 论文:https://research.facebook.com/file/1574548786327032/LLaMA--Open-and-Efficient-Foundation-Language-Models.pdf

官方代码地址:

更新时间 2023-11-21