yhcc / BARTNER

215 stars 22 forks source link

论文有在中文数据集上的效果吗? #5

Open HuimengZhang opened 2 years ago

HuimengZhang commented 2 years ago

如题。 请问,论文有在中文数据集上进行实验吗?效果如何?

yhcc commented 2 years ago

我们在CPT(https://arxiv.org/abs/2109.05729)开源的中文BART上尝试过,印象中性能会比直接sequence labeling的方式差一些,当时的看的几个错误感觉应该是由于找准boundary在中文上比英文更难。

HuimengZhang commented 2 years ago

我看huggingface上有 中文的BART 没有在中文的BART上进行实验吗?

pythonla commented 2 years ago

我用huggingface上中文的BART-base跑了一下,效果和Albert差不多,但是还没有找到蒸馏的方法。。。

aixiaoxin123 commented 2 years ago

请问替换为中文的fnlp/bart-large-chinese 模型后,如何改动代码,能让bart训练中文?请问有 训练成功过吗

pythonla commented 2 years ago

这是来自QQ邮箱的假期自动回复邮件。你发给我的信件已经收到。谢谢!

lzf00 commented 2 years ago

我用huggingface上中文的BART-base跑了一下,效果和Albert差不多,但是还没有找到蒸馏的方法。。。

请问能发一份你跑的demo吗,我试过用fnlp/bart-base-chinese,但一直没有成功,最后还是用bart-base跑的中文数据集。。。 这是我的邮箱:1437066318@qq.com ,感谢!

wangyudong1997 commented 1 year ago

我用huggingface上中文的BART-base跑了一下,效果和Albert差不多,但是还没有找到蒸馏的方法。。。

您好,中文的一直结果是0,要改代码哪里,请指教

pythonla commented 1 year ago

这是来自QQ邮箱的假期自动回复邮件。你发给我的信件已经收到。谢谢!

summer-la commented 8 months ago

-

您好,想请教下代码要改哪里,我改完f一直等于0,谢谢🙏

pythonla commented 8 months ago

这是来自QQ邮箱的假期自动回复邮件。你发给我的信件已经收到。谢谢!