ghosthamlet / gpt2-ml-torch

Pytorch model for https://github.com/imcaspar/gpt2-ml
Apache License 2.0
79 stars 16 forks source link

请问这个pytorch模型可以作为模型路径参数传给huggingface么? #25

Open probe2 opened 3 years ago

probe2 commented 3 years ago

因为我看你们的生成实现是用pipeline..我可以使用huggingface 的比如这份代码..把模型路径改成你们的模型 然后去生成么

from transformers import GPT2Tokenizer, GPT2LMHeadModel

tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2LMHeadModel.from_pretrained('gpt2')

inputs = tokenizer("Hello, my dog is cute and ", return_tensors="pt") generation_output = model.generate(**inputs, return_dict_in_generate=True, output_scores=True)

probe2 commented 3 years ago

我版本更新后 比如transformer更新到4.9. 跟你们一样的generate..就生成乱码了 这正常么..另外可以对你们的generate 输入比如num_beam,top p等参数么..我看pipline官网写说可以输入模型的generate方法别的超参..

ghosthamlet commented 3 years ago

这个pytorch模型是修改GPT2后训练的,不能直接调用huggingface的GPT2LMHeadModel,需要用本代码库提供的GPT2LMHeadModel。另外tokenizer也不是GPT2Tokenizer,需要用BertTokenizer,具体参见:https://github.com/ghosthamlet/gpt2-ml-torch/blob/master/gpt2_ml_torch/generate.py 不过本库的GPT2LMHeadModel和huggingface的接口基本完全一样,所以generate时可以输入一样的参数。