Closed JiaqiYao closed 4 years ago
原版英文BERT-large即是如此。 https://github.com/google-research/bert
你把152关掉了,我就这里回复你吧。如果你试试transformers库的分类模型,就会发现它调用pooler_fc_size设置分类最后一层参数的输入的size。而且只要原版如此,就不管对错,也不分析,有点不大好吧 -------分割线------- 关掉也可以继续回复。本目录已经声明是基于TensorFlow为主。 如果config有误也是因为transformers库本身转换的问题,你可以去transformers库的issues里提问。
P.S. 大家都没有义务一定要回复谁的,换位思考一下你这个issue直接过期被关掉了是不是更能接受?
按照我的理解应该是1024,但是config.json里面写的是768