zjunlp / DeepKE

[EMNLP 2022] An Open Toolkit for Knowledge Graph Extraction and Construction
http://deepke.zjukg.cn/
MIT License
3.52k stars 682 forks source link

RunBERT问题 #428

Closed Furyial closed 7 months ago

Furyial commented 7 months ago

您好,我使用bert做ner时候,采用你们给出的数据集,但是输出结果全部是O,并且最后计算出来的精度也是零。我看之前提出过相同的问题,但是并没有解决。请问有解决方案吗?

zxlzr commented 7 months ago

请问您是使用最新的代码吗,是什么模型,数据量有多少,之前的bug很早就修复过了

Furyial commented 7 months ago

我用的应该是十二月份的代码。train使用的人民日报数据集,eval是用的数据集。应该够用的数据量

Furyial commented 7 months ago

模型是bert,ner的run_bert

zxlzr commented 7 months ago

建议您重新pull下代码再试试吧

Furyial commented 7 months ago

那我先试试,谢谢老哥

Furyial commented 7 months ago

您好,我想请问一波,当我下载bert模型之后要把它放到哪里,我下载了新的代码,但是还是全部都O。我把bert_model改为了'G:\PythonCode\DeepKE-main\pretrained\bert-base-chinese\'也就是我下载bert后的绝对路径。代码跑出来了全是O,请问是不是这个的问题。我需要把下载的bert模型放到哪里

xxupiano commented 7 months ago

请问您跑的是哪个代码文件?

Furyial commented 7 months ago

example/ner/standard/run_bert.py

zxlzr commented 7 months ago

我们会尽快重跑下看下是否可以复现您遇到的问题。

Furyial commented 7 months ago

谢谢哥

xxupiano commented 7 months ago

您好,使用我们提供的人民日报数据集wget 120.27.214.45/Data/ner/few_shot/data.tar.gz,训练batch size为64, epoch为1得到结果如下图: image

xxupiano commented 7 months ago

BERT模型放在哪里都可以,只需要修改hydra/model/bert.yaml中的bert_mode为模型路径即可

Furyial commented 7 months ago

老哥,我重新复制了代码,然后设置batchsize为32.还是零 B~RFFK~D{%0$VUU3{THFS U

xxupiano commented 7 months ago

src下的代码是最新的吗?更新src下的代码后重新安装deepke,在DeepKE目录下使用pip install -e .命令

Furyial commented 7 months ago

牛逼哥,我把batchsize改成64就出正常结果了.....

Furyial commented 7 months ago

谢谢老哥一直耐心解答,祝老哥心想事成万事如意

Furyial commented 7 months ago

src下的代码还是原来的,并没有改变