Closed JachinLin2022 closed 10 months ago
你好 @JachinLin2022 ,
多谢反馈。在我们早期的实验中,我们用的是i-adapter这一格式,对应的是load_knowledge_adapter
函数。在后期,我们修改了save_knowledge_adapter
函数的格式,并且对load_knowledge_adapter
增加了one_f
参数适应新的格式。我们实验时两种格式都用过,但是由于代码整理的问题,one_f
参数没有被实际使用。我们会尽快修改这一问题。
你好 @JachinLin2022 ,
刚才的commit应该已经修复了这一问题。
def save_knowledge_adapter(self, f): if hasattr(self, "roberta"): encoder = self.roberta.encoder else: encoder = self.encoder dict = {} for i, layer in enumerate(encoder.layer): if layer.output.kas is not None: for j, adapter in enumerate(layer.output.kas): dict[str(i) + '-' + str(j) + '-adapter'] = adapter.state_dict() if layer.output.gating is not None: dict[str(i) + '-gating'] = layer.output.gating.state_dict() torch.save(dict, f)