Open 34127chi opened 5 years ago
b_attention是不是不需要最外层的转置
建议attention的时候不考虑padding部分 可以参考transformer的attention部分
b_attention最外层的转置没看明白呢,可以解答下吗?
@sszhaoGit 我觉得是写错了 这是我的pr https://github.com/terrifyzhao/text_matching/pull/5/commits/002758625b16366fc4985c8dd6fddfb4ccfcf9ff
同感,确实写错了,b_attention两次转置怎么想怎么觉得不对,后来仔细一想,维度都对不上。
b_attention是不是不需要最外层的转置
建议attention的时候不考虑padding部分 可以参考transformer的attention部分