Open aixiaoxin123 opened 2 years ago
请问有替换为中文的fnlp/bart-large-chinese 模型 成功吗,成功的话 是否可以发一份代码给我,635307345@qq.com 我这边替换后但一直报错
有替换为中文的fnlp/bart-large-chinese模型成功了吗,成功的话是否可以发一个代码给我,635307345@qq.com 我当时替换后但一直报错
同求,想用自己的中文数据集做实验,用bart-base可以成功,但是换成fnlp/bart-base-chinese会出错
应该有不少需要改的吧,BertTokenizer和 代码中用的bartTokenizer使用的句子开始和结束标记都不一样,编码解码过程中多处代码都需要修改
改动不小,未成功
请问有替换为中文的fnlp/bart-large-chinese 模型 成功吗,成功的话 是否可以发一份代码给我,635307345@qq.com 我这边替换后但一直报错
同求
我用的是bart-base-chinese。按照bart-base-chinese的官方huggingface页面的介绍,需使用BertTokenizer。然而此时使用AutoModel出错,提示BartModel.forward() got an unexpected keyword argument 'token_type_ids'。最后发现可以在训练和测试loop编写的时候把tokenize之后的张量进行一步简单的字典pop操作,即可正常运行。以训练loop的代码为例:
model.train()
for step, (X, y) in enumerate(dataloader, start=1):
X, y = X.to(device), y.to(device)
X.pop('token_type_ids') # 对于bart-chinese必须加这一行
pred = model(X)
这样就ok了
请问替换为中文的fnlp/bart-large-chinese 模型后,如何改动代码,能让bart训练中文?请问有 训练成功过吗?