Open ShellingFord221 opened 3 years ago
为什么BERT后面接了CNN / LSTM效果更好呢?是因为BERT encode能力不够吗?(显然不是)这其中有什么原理吗?谢谢
可以看下textcnn 这篇文章, 其实从词袋的思想出发就容易理解了。
可以看下textcnn 这篇文章, 其实从词袋的思想出发就容易理解了。 Improving text classification with weighted word embeddings via a multi-channel TextCNN model 您好 可以问下是这篇论文吗?
为什么BERT后面接了CNN / LSTM效果更好呢?是因为BERT encode能力不够吗?(显然不是)这其中有什么原理吗?谢谢