hy-struggle / PRGC

PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction
107 stars 16 forks source link

求助中文 #30

Open zjutnlper opened 5 months ago

zjutnlper commented 5 months ago

怎么使用中文数据集,我把预训练换成中文的bert,但训练的时候batch_size=1都会爆显存

beiyaoovo commented 5 months ago

self.train_batch_size = 1 if 'WebNLG' in corpus_type else 4

要改后面那个数字,前面的数字只能修改WebNLG的batchsize

zjutnlper commented 4 months ago

self.train_batch_size = 1 if 'WebNLG' in corpus_type else 4

要改后面那个数字,前面的数字只能修改WebNLG的batchsize

你好,请问中文数据集这块,换个预训练就就可以了吗,那个batch我解决了,但实际训练的时候非常差效果。还有我设置100个epoch,他却20个就停止了。

linesx commented 4 months ago

self.train_batch_size = 1 if 'WebNLG' in corpus_type else 4 要改后面那个数字,前面的数字只能修改WebNLG的batchsize

你好,请问中文数据集这块,换个预训练就就可以了吗,那个batch我解决了,但实际训练的时候非常差效果。还有我设置100个epoch,他却20个就停止了。

你好,请问你解决中文训练的问题了吗,我把BERT换成了中文,但是F1全是0,是跟参数有关吗

zjutnlper commented 4 months ago

self.train_batch_size = 1 if 'WebNLG' in corpus_type else 4 要改后面那个数字,前面的数字只能修改WebNLG的batchsize

你好,请问中文数据集这块,换个预训练就就可以了吗,那个batch我解决了,但实际训练的时候非常差效果。还有我设置100个epoch,他却20个就停止了。

你好,请问你解决中文训练的问题了吗,我把BERT换成了中文,但是F1全是0,是跟参数有关吗

你好,具体我也不清楚,英语分词和中文分词逻辑不太一样,我训练出来的效果很差

258508 commented 3 months ago

我800条训练集,处理完后运行起来显示1200多条,这是为什么?

Theadmaster commented 3 months ago

中文的分词最好按他英文的格式分,text字段中,一个字当成一个单词,每个字中间隔个空格,然后把bert换个中文适配的,我用的是bert-base-chinese,就可以了。