Open lhzd opened 3 years ago
感谢您的回复,但初次使用bert还有些问题。 self.bert(text_bert_indices, token_type_ids=bert_segments_ids, output_all_encoded_layers=False)中第一个参数和原来模型中text_indices是否一样,第二个参数的输入应该如何获取呢。 很抱歉再次打扰您,再查阅一些资料后还是不能试验成功。非常感谢您。
感谢您的回复,但初次使用bert还有些问题。 self.bert(text_bert_indices, token_type_ids=bert_segments_ids, output_all_encoded_layers=False)中第一个参数和原来模型中text_indices是否一样,第二个参数的输入应该如何获取呢。 很抱歉再次打扰您,再查阅一些资料后还是不能试验成功。非常感谢您。
同学您好!相关代码我已更新至仓库。如有疑问请随时和我联系,谢谢!
您好!您可以使用from pytorch_pretrained_bert import BertTokenizer工具包。并在model的代码中把embed替换成以下代码即可: encoderlayer, = self.bert(text_bert_indices, token_type_ids=bert_segments_ids, output_all_encoded_layers=False) 接下来我会将InterGCN-BERT代码也发布出来,请您稍等,谢谢!!!