920232796 / bert_seq2seq

pytorch实现 Bert 做seq2seq任务,使用unilm方案,现在也可以做自动摘要,文本分类,情感分析,NER,词性标注等任务,支持t5模型,支持GPT2进行文章续写。
Apache License 2.0
1.28k stars 208 forks source link

你好,我想问一下,关于gpt文章写作的数据集应该是什么样的格式,是一小段标题作为输入,文章作为输出么? #58

Open viego1999 opened 2 years ago

920232796 commented 2 years ago

可以,也可以仅仅输入一个文章,让它去学习就行。

viego1999 commented 2 years ago

您好,再打扰您一下,请问 gpt2/pytorch_model.bin 这个中文文章生成的预训练模型 在哪些数据集上进行了预训练模型呢?

------------------ 原始邮件 ------------------ 发件人: "920232796/bert_seq2seq" @.>; 发送时间: 2022年5月15日(星期天) 下午2:48 @.>; 抄送: "誠 @.**@.>; 主题: Re: [920232796/bert_seq2seq] 你好,我想问一下,关于gpt文章写作的数据集应该是什么样的格式,是一小段标题作为输入,文章作为输出么? (Issue #58)

可以,也可以仅仅输入一个文章,让它去学习就行。

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>

920232796 commented 2 years ago

这个是别人进行预训练的,具体用的哪些,你可以看下readme.md里面gpt2预训练模型下载地址的那个gituhub仓库,里面有个通用中文预训练模型。

viego1999 commented 1 year ago

好的,感谢回复!

------------------ 原始邮件 ------------------ 发件人: "zhaohu @.>; 发送时间: 2022年5月15日(星期天) 下午2:48 收件人: @.>; 抄送: "誠 @.>; @.>; 主题: Re: [920232796/bert_seq2seq] 你好,我想问一下,关于gpt文章写作的数据集应该是什么样的格式,是一小段标题作为输入,文章作为输出么? (Issue #58)

可以,也可以仅仅输入一个文章,让它去学习就行。

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>

viego1999 commented 1 year ago

嗯嗯,好的,谢谢!

------------------ 原始邮件 ------------------ 发件人: "zhaohu @.>; 发送时间: 2022年5月15日(星期天) 下午3:38 收件人: @.>; 抄送: "誠 @.>; @.>; 主题: Re: [920232796/bert_seq2seq] 你好,我想问一下,关于gpt文章写作的数据集应该是什么样的格式,是一小段标题作为输入,文章作为输出么? (Issue #58)

这个是别人进行预训练的,具体用的哪些,你可以看下readme.md里面gpt2预训练模型下载地址的那个gituhub仓库,里面有个通用中文预训练模型。

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>