Open probe2 opened 3 years ago
我版本更新后 比如transformer更新到4.9. 跟你们一样的generate..就生成乱码了 这正常么..另外可以对你们的generate 输入比如num_beam,top p等参数么..我看pipline官网写说可以输入模型的generate方法别的超参..
这个pytorch模型是修改GPT2后训练的,不能直接调用huggingface的GPT2LMHeadModel,需要用本代码库提供的GPT2LMHeadModel。另外tokenizer也不是GPT2Tokenizer,需要用BertTokenizer,具体参见:https://github.com/ghosthamlet/gpt2-ml-torch/blob/master/gpt2_ml_torch/generate.py 不过本库的GPT2LMHeadModel和huggingface的接口基本完全一样,所以generate时可以输入一样的参数。
因为我看你们的生成实现是用pipeline..我可以使用huggingface 的比如这份代码..把模型路径改成你们的模型 然后去生成么
from transformers import GPT2Tokenizer, GPT2LMHeadModel
tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2LMHeadModel.from_pretrained('gpt2')
inputs = tokenizer("Hello, my dog is cute and ", return_tensors="pt") generation_output = model.generate(**inputs, return_dict_in_generate=True, output_scores=True)