-
Hello!
I downloaded the trained checkpoint in README for inferring on the test set to reproduce the results.
The results given in README are (EM / F0.5 : 34.10 / 45.48). But my results (utilizing th…
-
1. 模型转换方式: ./MNNConvert -f ONNX --modelFile .../model.onnx --MNNModel ~/Desktop/model.mn
2. model.onnx没有问题: onnx再转化成tflite之后, 输出结果符合预期
3. PC测试MNN模型方式: ./MNNV2Basic.out .../model.mnn 1 0 0 3x1x3…
-
I trained the model with the following code:
`python run_mwptoolkit.py --model=MWPBert --dataset=math23k --equation_fix=prefix --task_type=single_equation --pretrained_model=./pretrain/chinese-bert-w…
-
非常赞的工作。
中文模型的预训练使用的数据是wudao,我看有3个体量(200G、3T、5T)的数据集,请问用的是哪个呢。
另外总结了一下这个工作的预训练的一些细节,辛苦看一下是否正确哈~
- encoder初始化模型:来自[https://huggingface.co/hfl](https://huggingface.co/hfl)(来自[https://huggingface.co/…
-
### Is there an existing issue for this?
- [X] I have searched the existing issues
### Current Behavior
When executing towhee.build_docker_image, the op contains a local private BERT model, and the…
-
加载模型出错。 合成音频是微电流声音。在模型在原仓库项目是可以成功合成的。
erta-wwm-ext-large were not used when initializing BertForMaskedLM: ['cls.seq_relationship.bias', 'cls.seq_relationship.weight']
This IS expected if you are…
-
版本:安装部署包后,解压主线代码覆盖。
直接加载bert vits2模型报错:INFO:apscheduler.scheduler:Scheduler started
INFO:vits-simple-api:Loading chinese-roberta-wwm-ext-large...
Some weights of the model checkpoint at C:\vits-sim…
-
新出的BERT-VITS2效果很好,有考虑过集成到vits-sample-api里面吗
-
跑了40个epoch的评价指标一直都是0,怎么样才能得到和作者相同的成果呢?
loss一直停在0.1左右
transformers 4.25.1
torch 1.9.0
```
class EeArgs:
tasks = ["obj"]
data_name = "duee"
data_dir = "ee"…
-
想请问由于我在台湾地区,有需求需要训练繁中的模型,我先试验是否可行,我先把训练资料利用opencc 转成繁体中文,然后用一样的pretrain的模型,然后用繁体中文去测试...
句子比对是没太大问题,但是similar titles以下为何还是出现简体中文? 我检查很多次确定训练资料是用繁体中文了,请问这跟pre-train model有关吗?
```
2023-08-28 16:5…