renjunxiang / Multihead-Attention

Multihead Attention for PyTorch
25 stars 3 forks source link

将自注意力机制加入textcnn卷积后池化前,数据维度会改变吗 #2

Open lt15523290043 opened 3 years ago

renjunxiang commented 3 years ago

不会吧,自注意力就是改了下序列的权重分布,不影响维度吧