在加载LLaMA模型时遇到到的问题及解决方法。
1. 问题1
解决方法:找到llama模型中的tokenizer_config.json文件,把“tokenizer_class”对应的“LLaMATokenizer”改为“LlamaTokenizer”。
2. 问题2
在解决问题1后,继续运行可能会遇到下面的问题:
解决方法:!pip install transformers[sentencepiece]
在加载LLaMA模型时遇到到的问题及解决方法。
解决方法:找到llama模型中的tokenizer_config.json文件,把“tokenizer_class”对应的“LLaMATokenizer”改为“LlamaTokenizer”。
在解决问题1后,继续运行可能会遇到下面的问题:
解决方法:!pip install transformers[sentencepiece]