issues
search
renjunxiang
/
Multihead-Attention
Multihead Attention for PyTorch
25
stars
3
forks
source link
将自注意力机制加入textcnn卷积后池化前,数据维度会改变吗
#2
Open
lt15523290043
opened
3 years ago
renjunxiang
commented
3 years ago
不会吧,自注意力就是改了下序列的权重分布,不影响维度吧
不会吧,自注意力就是改了下序列的权重分布,不影响维度吧