Open SCU-JJkinging opened 2 years ago
bert本来就不能超过512啦
要是改了模型记得调参数
NEZHA 这个预训练模型 不是文本长度可以超过512吗?
改一下bert config
能提供一下nezha pytorch的预训练模型吗?