issues
search
649453932
/
Chinese-Text-Classification-Pytorch
中文文本分类,TextCNN,TextRNN,FastText,TextRCNN,BiLSTM_Attention,DPCNN,Transformer,基于pytorch,开箱即用。
MIT License
5.25k
stars
1.22k
forks
source link
注意力机制算出来的权重小,正常吗
#67
Open
Li-rr
opened
3 years ago
Li-rr
commented
3 years ago
作者您好,
我使用TextRnn-Att跑了代码,
在训练期间查看了注意力权重,batch_size是128,seq_len是32,
作者您好,
我使用TextRnn-Att跑了代码,
在训练期间查看了注意力权重,batch_size是128,seq_len是32,