当前位置:AIGC资讯 > AIGC > 正文

关于LLaMA Tokenizer的一些坑...

使用LLaMA Tokenizer对 jsonl 文件进行分词,并将分词结果保存到 txt 文件中,分词代码如下:

import jsonlines
import sentencepiece as spm
from tqdm import tqdm

jsonl_file = '/path/to/jsonl_file'
txt_file = '/path/to/txt_file'

tokenizer = spm.SentencePieceProcessor('./tokenizer.model')
w = open(txt_file, mode='w', encoding='utf-8')

with jsonlines.open(jsonl_file, mode='r') as r:
    for line in tqdm(r):
        ids = tokenizer.Encode(line['text'])
        tokenized_text = ' '.join(tokenizer.IdToPiece(i) for i in ids)
        w.write(f"{tokenized_text}\n")

w.close()

从以上代码可以看出,txt 文件中的每行内容实际上是 jsonl 文件对应行的文档的分词结果,分词之间以空格分隔。理论上,这意味着 txt 文件的行数应与 jsonl 文件的行数相匹配,均等同于文档数量。然而,实际情况可能出现 txt 文件的行数显著超过 jsonl 文件的行数。

既然行数对不上,那自然就需要找到第一个出现问题的行。为此,我们重新执行分词过程,并在每行的开头添加该行的索引(从 1 1 1 开始)以便追踪。

with jsonlines.open(jsonl_file, mode='r') as r:
    for idx, line in tqdm(enumerate(r, start=1)):
        ids = tokenizer.Encode(line['text'])
        tokenized_text = ' '.join(tokenizer.IdToPiece(i) for i in ids)
        w.write(f"{idx} {tokenized_text}\n")

然后遍历 txt 文件,找到第一个出现问题的行:

with open(txt_file, mode='r') as r:
    for cnt, line in tqdm(enumerate(r, start=1)):
        idx = line[:line.index(' ')]
        if str(cnt) != idx:
            print(cnt)
            break

打开 txt 文件,发现出现问题的行的开头压根没有数字,这说明分词结果被某种特殊字符换行了。要注意LLaMA词表是没有换行符 \n 的(被映射到 <unk> 了),那还能是什么字符导致换行的呢?

jsonl 文件中对应的行抽取出来,单独对它进行分词,然后将分词结果打印到终端上,发现并没有换行,然而将这个分词结果单独写入到一个新的文件中时,换行出现了。通过对每一个token单独进行分析,发现其中有一个token含有 \r,而这个字符正是导致换行的罪魁祸首!

? \r 字符是回车符(Carriage Return, CR),在ASCII表中的位置是十进制的13或者十六进制的0x0D。这个字符最初设计用于打字机和早期计算机,指的是将打印头移动到一行的开始位置而不换到下一行,这样新的文本就会覆盖掉同一行上旧的文本。

在Python中使用 print('\r') 时,并不会导致在控制台上换行,因为 \r 只是将光标移回行首,而没有执行换到新行的操作。例如 print('aaa\rbb') 会输出 bba。 而在文本文件中写入 \r 字符时,文本编辑器可能会将其解释为换行符,因此会触发换行效果。

接下来,我们就可以找出LLaMA词表中所有可能会导致换行的token了:

tokenizer = spm.SentencePieceProcessor('./tokenizer.model')
vocab_size = tokenizer.GetPieceSize()
for i in range(vocab_size):
    piece = tokenizer.IdToPiece(i)
    if '\r' in piece:
        print(f"{i}: {list(piece)}")

一共有 24 24 24 个:

2104: [';', '\r']
3238: ['>', '\r']
3336: ['▁', '{', '\r']
4970: ['▁', '}', '\r']
6075: [')', ';', '\r']
6756: ['▁', '\r']
8117: ['}', '\r']
8443: [')', '\r']
10175: ['"', '>', '\r']
11167: [',', '\r']
14078: ['(', ')', ';', '\r']
14626: ['{', '\r']
15231: ['"', ',', '\r']
16737: ['%', ';', '\r']
17822: ["'", ')', ';', '\r']
18584: ['"', ')', ';', '\r']
19451: ['"', '\r']
22993: ['.', '\r']
23592: ["'", ',', '\r']
24426: ['▁', '}', ')', ';', '\r']
25982: ['"', ';', '\r']
26471: ['(', ')', '\r']
29722: ['▁', '*', '/', '\r']
30004: ['\r']

可以看出,位于索引 30004 处的token刚好就是 \r,而其他token则均是以 \r 结尾。

很多场景下,我们可能需要保证 jsonltxt 的行数一致才能进行下一步,为此有两种选择方案:

在生成 jsonl 文件的时候做一个预处理,判断其中是否有token包含在上述24个token之一(该方案可保持 jsonl 行数不变)。 对生成的 jsonl 文件按照上述的24个token进行过滤(该方案会导致 jsonl 行数减少)。

无论是哪种方案,都涉及到对是否包含的判断。设24个token构成的列表为 a,某个文档的分词结果为 b,于是问题便归结为判断 a 中是否有元素出现在了 b 中(反之亦然)。根据这篇博客的结论,我们可以用集合法来快速判断。

tokenizer = spm.SentencePieceProcessor('./tokenizer.model')
stop = {2104, 3238, 3336, 4970, 6075, 6756, 8117, 8443, 10175, 11167, 14078, 14626, 15231, 16737, 17822, 18584, 19451, 22993, 23592, 24426, 25982, 26471, 29722, 30004}

def valid(ids):
    return not bool(set(ids).intersection(stop))

with jsonlines.open(jsonl_file, mode='r') as r:
    for idx, line in tqdm(enumerate(r, start=1)):
        ids = tokenizer.Encode(line['text'])
        if not valid(ids):
            print(f"Line {idx} is invalid data!")

更新时间 2024-02-17