Closed sataliulan closed 4 years ago
发现只在python3出错,出错的地方是
from bert4keras.tokenizers import Tokenizer
dict_path = '/root/kg/bert/chinese_L-12_H-768_A-12/vocab.txt'
tokenizer = Tokenizer(dict_path, do_lower_case=True) # 建立分词器
text = 'rΣ'
tokens = tokenizer.tokenize(text)
tokenizer.rematch(text, tokens)
提问时请尽可能提供如下信息:
基本信息
核心代码
输出信息
自我尝试
已做了异常处理