LeeSureman / Batch_Parallel_LatticeLSTM

Chinese NER using Lattice LSTM. Reproduction for ACL 2018 paper.
130 stars 16 forks source link

您好,那个bigram可以不用么 #6

Open TianlinZhang668 opened 4 years ago

TianlinZhang668 commented 4 years ago

您好,原作者bigram好像没用,只用了word和字,这个bigramPath我设置成None,则会显示错误,应该是函数中如果为空,则embedding【bigram】就不存在,就会导致错误,请问下怎么不用bigram。 因为原作者这个bi的词向量给的百度云网盘一直没有速度,如果您不方便解决,是否可以提供bi的词向量的连接,谢谢!!

LeeSureman commented 4 years ago

1.可以在命令行参数中设置--use_bigram为False 2.https://github.com/jiesutd/LatticeLSTM 这里有谷歌硬盘的链接

TianlinZhang668 commented 4 years ago

您好,我知道这个连接,但是这个谷歌没有bi词向量,只有另两个

LeeSureman commented 4 years ago

那你就慢慢下或者冲个百度云会员吧,不过中文NER中 bigram一般都很重要,不用它会差很多个点

TianlinZhang668 commented 4 years ago

您好,我修改了--use_bigram False,但是还是不行, 错误如下:model = LatticeLSTM_SeqLabel_V1(embedding['char'],embedding['bigram'],embedding['word']) KeyError:'bigram'

TianlinZhang668 commented 4 years ago

谢谢,我已经解决了,主要是不熟悉那个cache部分,跑weibo的时候前面cache代码没有改。还有我问过原作者,他说他后来不用bi了,说是直接用gaz匹配,我也不清楚是个什么原理

LeeSureman commented 4 years ago

可以的,这两天我比较忙,抱歉。加入词汇信息的时候,bigram的确不是那么有必要了

houyuchao commented 5 months ago

您好,我修改了--use_bigram False,但是还是不行, 错误如下:model = LatticeLSTM_SeqLabel_V1(embedding['char'],embedding['bigram'],embedding['word']) KeyError:'bigram'

我有相同的问题,我跑微博数据集的时候也出现了相同的报错,大佬可以告诉我更改哪里吗