issues
search
920232796
/
bert_seq2seq
pytorch实现 Bert 做seq2seq任务,使用unilm方案,现在也可以做自动摘要,文本分类,情感分析,NER,词性标注等任务,支持t5模型,支持GPT2进行文章续写。
Apache License 2.0
1.29k
stars
209
forks
source link
issues
Newest
Newest
Most commented
Recently updated
Oldest
Least commented
Least recently updated
关于分词示例roberta_participle_CRF_train.py
#71
Turskey
opened
1 year ago
0
数据集分享
#70
zhangzai666
opened
1 year ago
0
请问英文的标题生成要怎么修改?
#69
ta-xiang
closed
1 year ago
0
我从新改变了vocab.txt的大小,在加载预训练模型的时候出现维度不匹配,请问应该怎么解决了?我发现代码里面有个keep_tokens,似乎可以解决,但我不知道keep_tokens改如何设置。
#68
panbo-bridge
opened
1 year ago
0
数据长度
#67
lishuzhen97
closed
1 year ago
0
多卡训练失败,目前有4个gpu,但使用的时候一直显示用的cuda0,指定其他cuda也不生效
#66
GUORUIWANG
opened
2 years ago
0
关于UniLM
#65
cppww
opened
2 years ago
1
关于细粒度NER数据集
#64
the9527001
opened
2 years ago
0
自動摘要 fine tune
#63
frankShih
opened
2 years ago
1
您好! 关于您的simbert_train.py的动态padding部分 得到的token_type_ids有的就会类似于[0,0,0,0,1,1,1,0,0,0] 既然它是用来区分句子的,那到底拿1去padding还是0呢?
#62
EddieChen324
closed
2 years ago
2
您好 请问在simbert模型里面 seq2seq的loss比similarity的loss大的多是正常的吗?
#61
EddieChen324
opened
2 years ago
3
关于t5_auto_title_train.py
#60
Wuyu-byte
closed
2 years ago
0
mbart
#59
Zhiyuan-Fan
closed
2 years ago
0
你好,我想问一下,关于gpt文章写作的数据集应该是什么样的格式,是一小段标题作为输入,文章作为输出么?
#58
viego1999
opened
2 years ago
5
请问在做标题生成的时候支持point_net对应的copy机制吗?
#57
chenzelong
opened
2 years ago
1
如何能联系到您呢?qq群加不进去,有关于epoch和bart做seq2seq方面的问题想请教一下> > 您好 在不断降低学习率之后loss还是卡在原来的位置,请问如何能与您取得联系?
#56
chenzelong
opened
2 years ago
5
unilm多少epoch收敛比较好?
#55
chenzelong
opened
2 years ago
1
请问bart做标题生成怎么跑起来?
#54
chenzelong
opened
2 years ago
4
麻烦作者大佬同意一下入群申请,非常感谢!
#53
fizzcarry
closed
2 years ago
2
您好,我想添加一些我自己的数据集做fine-tune,请问应该怎么做呢
#52
pangsg
opened
2 years ago
1
增加了对paddle模型的支持
#51
Zhiyuan-Fan
closed
2 years ago
0
roberta_auto_title_train.py
#50
lishuzhen97
opened
2 years ago
4
1. 关于多卡训练支持建议。2. 关于tokenizer的pre_train建议。3. 关于外露模型配置API的建议。
#49
PolarisRisingWar
opened
2 years ago
1
simbert_model.py文件中的117行
#48
singaln
opened
2 years ago
5
模型加载输出问题
#47
yang41690104
opened
2 years ago
5
如何使用问题?
#46
Jockz
opened
3 years ago
1
关于数据集问题
#45
XingyuZhu-Pamela
opened
3 years ago
2
NEZHA 模型 长度超过512 报错!
#44
SCU-JJkinging
closed
3 years ago
8
关于医学代码的问题
#43
cc846049716
opened
3 years ago
16
三元组信息抽取中随机抽取object,最终只用到了object开始、结束字符对应的编码用于predict、subject预测,这样是否合理呢
#42
jackjqli
opened
3 years ago
1
粗粒度NER-tokenizer问题
#41
NiceMartin
opened
3 years ago
1
beam search issue
#40
chenhaoenen
closed
3 years ago
1
代码问题 multi-head attention 中的 extended_attention_mask
#39
NiceMartin
opened
3 years ago
4
关于标题分类的问题
#38
Evialzhang
opened
3 years ago
1
seq2seq的loss计算问题
#37
fengxin619
opened
3 years ago
11
你好运行的时候报错
#36
Kingsuuun
opened
3 years ago
2
想问下这个pytorch的版本是多少
#35
justyyau
opened
3 years ago
2
数据集问题
#34
songzukang1
opened
3 years ago
1
预训练
#32
pythonla
opened
3 years ago
2
诗词test的程序运行时报错
#31
jielingao
opened
3 years ago
4
关于生成摘要的使用
#30
charlesyzk
opened
3 years ago
5
请问为什么作为一个seq2seq模型可以载入Bert模型?是因为weighted参数大致相同,但是attention策略不同么?
#29
ElderWanng
closed
3 years ago
2
数据集下载
#28
pythonla
opened
3 years ago
1
咨询下文本生成的几个细节
#27
renjunxiang
opened
3 years ago
7
Question about THUCNews自动摘要
#26
PipiZong
closed
3 years ago
2
如果要使用英文数据集需要更改什么
#25
kuroko730
opened
3 years ago
2
训练好的模型能开源吗
#24
saberSabersaber
opened
3 years ago
9
model.roberta_model.BertEmbeddings类的forward方法下第一个else中的inputs_embeds没有定义
#23
Alxe1
opened
3 years ago
1
三元组数据集怎么获取?
#22
tcxia
opened
4 years ago
3
写诗数据集可以发我一份吗?3139725181@qq.com
#21
3139725181
opened
4 years ago
2
Next