(结构)
进行了些整理
(原来的是真乱)注释
(我真看了它源码)舒服的shell
运行案例(开箱即学)效果确实不错
【可摘要、可文本复述、训练快、推断快】案例数据
,方便学习export python=/home/xxx/anaconda3/envs/tf15_py37/bin/python3
记得改成你自己的python环境路径export Root_Dir=xx
记得改成你自己的代码根目录
# shell里面给出了参数注释
# 处理数据
sh 1.data_process.sh
# 训练
sh 2.train.sh
# 导出pb模型
sh 3.export.sh
# 预测
sh 4.predict.sh
# 计算预测后的分数
sh 5.eval_score.sh
用的这个轻量bert:RoBERTa-tiny-clue,很小很快,效果也不差
bert数据(RoBERTa-tiny-clue)直接放进来了,在bert_base/RoBERTa-tiny-clue 所以你不用去别的地方下载了
如果想换成base bert,参数改成
和谷歌的LaserTagger模型中configs/lasertagger_config.json 中那样的,因为RoBERTa-tiny-clue参数要小很多
案例数据,在corpus/rephrase_corpus下