-
尝试过bert-wwm(哈工大提供的),在keras上面可以跑batch_size=6,max_seq=512。
但是,在这里面只能跑batch=1,seq_len=300(我试过)
版本、环境信息:
1)PaddlePaddle版本:1.5.0.post87
2)CPU:i5 9400f
3)GPU:1080ti,通过anaconda安装的cudatoolkit 8.0,cudnn7…
-
```
错误报告如下,这是什么问题,该如何解决啊
usage: main.py [-h] --train-data TRAIN_DATA [--val-data VAL_DATA] [--num-workers NUM_WORKERS] [--logs LOGS] [--name NAME] [--log-interval LOG_INTERVAL] [--report-training-ba…
-
1、用来预训练bge-large-zh-1.5的基座模型是什么?
2、有什么推荐的,比较好的中文bert类模型,用来替换基座模型预训练,提高在中文领域的embedding和reranker效果?
-
File ~/work/python/tts/MeloTTS/melo/api.py:81, in TTS.tts_to_file(self, text, speaker_id, output_path, sdp_ratio, noise_scale, noise_scale_w, speed)
79 t = re.sub(r'([a-z])([A-Z])', r'\1 \2'…
-
when I use roberta_zh to pretrain CPT model , raise error "Error(s) in loading state_dict for BertModel". So what pretrained model shoud i use? Roberta or BERT ?
-
跑一下代码,发现无法达到0.78+ 的性能。请您指点一下。谢谢!
-
您好,我想问一下,能不能完全不需要微调,从头训练自己的数据集呢?要是可以的话我该如何设置训练脚本呢?
-
Using this [Chinese model](https://huggingface.co/luhua/chinese_pretrain_mrc_roberta_wwm_ext_large?context=%E6%88%91%E5%8F%AB%E5%85%8B%E6%8B%89%E6%8B%89%EF%BC%8C%E6%88%91%E4%BD%8F%E5%9C%A8%E4%BC%AF%E5…
-
运行sh脚本总会出现未识别的参数**main.py: error: unrecognized arguments: --accum-freq=1**,脚本和示例一模一样
```
`usage: main.py [-h] --train-data TRAIN_DATA [--val-data VAL_DATA] [--num-workers NUM_WORKERS] [--logs LOGS] …
-
['O', 'B-故障设备', 'I-故障设备', 'B-故障原因', 'I-故障原因']
{'O': 0, 'B-故障设备': 1, 'I-故障设备': 2, 'B-故障原因': 3, 'I-故障原因': 4}
Some weights of the model checkpoint at ./model_hub/chinese-bert-wwm-ext/ were not used whe…