Open yuanfengning opened 2 years ago
配置文件换成 sbert/base_config.json 谢谢,确实是配置文件导致的。
配置文件换成 sbert/base_config.json
你好, 我用上面的命令做训练,交叉熵损失一直在0.5以上,模型不收敛。 预训练模型是:chinese_roberta_L-12_H-768 训练和测试数据为ChineseTextualInference提供的数据。 python finetune/run_classifier_siamese.py --pretrained_model_path chinese_roberta/pytorch_model.bin --vocab_path chinese_roberta/vocab.txt --config_path chinese_roberta/config.json --train_path datasets/ChineseTextualInference/train.tsv --dev_path datasets/ChineseTextualInference/dev.tsv --learning_rate 5e-5 --epochs_num 2 --batch_size 64 所有配置参数都是官网提供的。
通过下面命令对孪生网络进行微调时,报错。
python finetune/run_classifier_siamese.py --pretrained_model_path chinese_roberta/pytorch_model.bin --vocab_path chinese_roberta/vocab.txt --config_path chinese_roberta/config.json --train_path datasets/ChineseTextualInference/train.tsv --dev_path datasets/ChineseTextualInference/dev.tsv --learning_rate 5e-5 --epochs_num 2 --batch_size 64
错误如下:
用的是master分支,环境标量按照readme进行的配置。 麻烦解答下, 谢谢!!!