Open renmada opened 3 years ago
你好,根據我的了解該函氏的確初始化了權重,同時也能根據config中pruned_heads參數去裁剪,最後根據讀取的from_pretrained 中的model權重覆寫上去。 官方文檔: https://huggingface.co/transformers/_modules/transformers/modeling_bert.html
Here, please refer the link Why we need the init_weight function in BERT pretrained model
如果是的话,为什么要这么做