-
作者您好:
我用weibo数据集(BMEOS模式)在您的原始代码(参数等均未改动)上跑了lattice model的实验,在NE,NM,ALL测试集上的F值都没有达到您论文汇报的结果(分别为:51.77vs53.04,60.00vs62.25,56.00vs58.79)。
我查看了之前的issues,看到您回复由于weibo数据规模小,所以存在不稳定的问题。因此我又尝试了8个不同的random…
-
您好!我在您的Chinese NER Using Lattice LSTM论文的resume数据集上进行实验,只修改了配置文件,训练了100个epoch,但是训练过程中每次在dev和test上评测的f1值都是10%~20%,十分不理想。配置文件如下:
### use # to comment out the configure item
### I/O ###
train_dir=dat…
-
我根据您的代码,仅仅用char embedding来复现基于char的weibo和MSRA实验,我发现webo和MSRA的结果都达不到论文中的引用值,weibo test只有: 0.475, 论文中是0.5277; MSRA test只有85.75,论文中是88.81。所以,我想请教一下作者,这大概是什么原因造成的?我调试了很久,但是始终没有太大的提升。
-
The same issue as 22#. We use our dataset to train the NER model. The tag scheme is BIOES (The only difference is we used "M-" instead of "I-"). These data have been test on your "Lattice LSTM model".…
-
In my experiment, char embeddings and word embeddings are gigaword_chn.all.a2b.uni.ite50.vec and ctb.50d.vec respectively, while bichar_emb is set to None. Other parameters take the default value…