LeeSureman / Flat-Lattice-Transformer

code for ACL 2020 paper: FLAT: Chinese NER Using Flat-Lattice Transformer
1k stars 178 forks source link

复现msra,最好F1值目前94.12%,无法达到论文中说的96+% #47

Open Ling312 opened 3 years ago

Ling312 commented 3 years ago

作者能否公布一下msra结果相关的训练参数?norm = 0/1/2/3 ? learning rate batchsize之类的。

Ling312 commented 3 years ago

有人复现成功吗?

Ling312 commented 3 years ago

调了调参数 目前到0.9586

CoderMusou commented 3 years ago

调了调参数 目前到0.9586

请问你是加了BERT之后得到这个结果的嘛

Ling312 commented 3 years ago

对 是加了bert

LeeSureman commented 3 years ago

代码里的默认参数就是我实验中的超参数了

LeeSureman commented 3 years ago

你是用啥命令运行的呀,跑完所有epoch了嘛

Just-silent commented 3 years ago

我在不适用bert的情况下就达到了94%

Maybewuss commented 3 years ago

msra直接用test的数据集用作dev来选模型是不是不太合理?

LeeSureman commented 3 years ago

msra直接用test的数据集用作dev来选模型是不是不太合理?

Lattice LSTM中是这么做的,为了公平比较,我们没有变更实验设定

Maybewuss commented 3 years ago

msra直接用test的数据集用作dev来选模型是不是不太合理?

Lattice LSTM中是这么做的,为了公平比较,我们没有变更实验设定

谢谢,明白了

Coder-XIAOKAI commented 2 years ago

msra的数据集是怎么处理的啊,我的显卡16G跑不开