Open kFoodie opened 4 years ago
你好~请问您解决这个问题了吗?我也遇到了同样的问题 ><
您好,谢谢您的提问。我大约29号给您回复可以么。我安排时间复现一下。 谢谢!
您好,谢谢您的提问。我大约29号给您回复可以么。我安排时间复现一下。 谢谢!
感谢回复,麻烦您了。
你好~请问您解决这个问题了吗?我也遇到了同样的问题 ><
并没有。。
我跑了ctb6的,大概跑了一天。结果是这样,跟你们的论文的结果差距好大。 代码几乎都没改你们。不知道是哪一步出了问题? 实验的参数设置如下:
python3 run_bert_glyce_tagger.py \ --data_sign pku_cws \ --config_path ../configs/pkucws_glyce_bert.json \ --data_dir data/ctb6 \ --bert_model /data/glusterfs_sharing_04_v3/11117720/bert-chinese-ner-master/checkpoint \ --output_dir /data/glusterfs_sharing_04_v3/11117720/glyce-master/output/ \ --task_name cws \ --max_seq_length 128 \ --do_train \ --do_eval \ --seed 3310 \ --train_batch_size 64 \ --dev_batch_size 32 \ --test_batch_size 32 \ --learning_rate 3e-5 \ --num_train_epochs 3 \ --warmup_proportion -1 \ --gradient_accumulation_steps 100
我试了其他数据集,基本上也都上不到90%的F1值……
您好,我在复现您的cws的时候,发现训练时间好长,一个epoch13个小时都没跑完,想跟您交流一下是啥原因?
我使用的是pku的数据集。
使用的环境是ubuntu18.0,gpu是tesla t4。
不知道是哪一步出了问题,望回复,感谢!! 使用的是pku的数据集,标注如下:
修改了数据读取的格式。训练代码去掉了验证部分,其他的基本没做改动。 ` def train(model, optimizer, train_dataloader, test_dataloader, config, \ device, n_gpu, label_list): global_step = 0 nb_tr_steps = 0 tr_loss = 0
`