HuiResearch / cail2019_track2

中国法研杯CAIL2019要素抽取任务第三名方案分享
139 stars 30 forks source link

您好,我也是参加这个比赛的,研究了您的思路受益匪浅,想请教您一个问题 #3

Open pbz123 opened 4 years ago

pbz123 commented 4 years ago
您将MAXPOOLing换成attention这里我看的有一些不太明白,不知道您可不可以帮我解释一下这部分的具体操作过程
HuiResearch commented 4 years ago

你好。这个RCNN部分我也是参照了别人的工作,原始的是在第二维上进行最大池化,当时我实验效果不好,后来通过点积操作获得概率分布,然后将向量与概率分布向量相乘得到的attention结果。这样才有了一定提升,但是提升效果也不大。

m13021933043 邮箱:m13021933043@163.com

Signature is customized by Netease Mail Master

在2019年12月12日 16:37,pbz123 写道: 您将MAXPOOLing换成attention这里我看的有一些不太明白,不知道您可不可以帮我解释一下这部分的具体操作过程

— You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub, or unsubscribe.

pbz123 commented 4 years ago

好的,感谢您的回答。那送入attention的矩阵就是同样的句子从RCNN和LSTM分别出来后直接拼接起来是吗?还是说拼接这里有一些特殊的方法呀

HuiResearch commented 4 years ago

我的拼接操作是这样的,Bert得到的矩阵A,然后A通过双向lstm得到B,最后将A和B拼接后的结果送入attention

m13021933043 邮箱:m13021933043@163.com

Signature is customized by Netease Mail Master

在2019年12月12日 19:21,pbz123 写道:

好的,感谢您的回答。那送入attention的矩阵就是同样的句子从RCNN和LSTM分别出来后直接拼接起来是吗?还是说拼接这里有一些特殊的方法呀

— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.