CCKS 2019 Task 2: Entity Recognition and Linking
CCKS 2019 中文短文本的实体链指 (CCKS 2019 Task 2: Entity Recognition and Linking),https://biendata.com/competition/ccks_2019_el/,第十名代码分享。
根据网友需求,提供数据地址,需遵守CCKS2019及百度的相关规定:此数据仅可用于学术交流和非商业需求,如违背数据许可协议,百度公司将保留追究其法律责任的权利。链接: https://pan.baidu.com/s/1gAVCEP7uXHCdf1AeRooyeg,提取码: pcw6 。
1.BERT、BERT-wwm:https://github.com/ymcui/Chinese-BERT-wwm
2.ERBIE:https://github.com/PaddlePaddle/LARK,考虑到版权及作者申明,pytorch版的权重请自行查找
3.词向量:https://github.com/Embedding/Chinese-Word-Vectors
在此表示感谢!
1.运行脚本./preprocess.py在./data_deal中生成预处理结果,为了提高训练和推断速度,预处理的时候会保留文本、词典编码、实体位置和链接的kb_id,只尝试了保留频数最多的10000个字,提供部分预处理数据(tokenizer.pkl和develop_data.pkl供参考,建议自己重新跑一下),主要包含:
1.下载词向量,运行脚本./embedding.py,抽取出字向量,保存在./data_deal中,以便后续nn.embedding的时候可以导入
这里将网络拆开,实际训练中由于实体识别和实体消岐无法同时达到最佳,所以需要先训练实体识别,再载入实体识别最优模型权重训练消岐
1.将bert预训练放入pretrain中,也可以自行修改训练脚本中的位置
2.运行脚本./train_part_ner.py,输入网络参数,实体识别模型保存在./results_ner中:python train_part_ner.py --cuda 0 --pretrain bert --num_layers 3 --hidden_dim 768 --loss_weight 2 --epochs 3 --k 0.820
3.运行脚本./train_part_link.py,输入实体识别的模型id,完整模型保存在./results中:python train_part_link.py --cuda 0 --pretrain bert --num_layers 3 --hidden_dim 768 --loss_weight 2 --ner_id 2 --num_words 10000 --max_len 400 --epochs 25 --lr 0.001 --k 0.9030 --n 2
4.模型和每次的预测结果都保存在./results/10000中,后续ensemble需要
1.运行脚本./predict.py,推断eval数据集
2.运行脚本./submit_test.py,对eval结果做ensemble用于提交
1.为了减小模型大小,bert预训练是在dateset中计算好语义再输入模型,而不是模型中嵌入;
2.消岐过程发现bert和词向量+CNN好像没太大区别;
3.类似书名号等规则并没有太大的提升(submit.py就是最后投票融合的,也没什么有效的规则和方法),感觉标注本身就不太统一
PS:比赛代码在服务器上执行,本代码如有问题请先debug,再次对主办方开放数据集表示感谢!