-
不知道为什么4 5的文件夹都是空的,6的文件只有1行。
以下是SoVITS训练的报错
```
"/Library/Frameworks/Python.framework/Versions/3.11/bin/python3" GPT_SoVITS/s2_train.py --config "/Users/tom/Playgrounds/GPT-SoVITS-main/TEMP/tmp_s2.j…
-
需求是:我在重新加载模型进行增量的训练中,出现了优化器加载失败的情况;下面是调用的代码和错误信息,想请问下要怎么调整去进行增量训练?
```python
if base_id != 0:
model_path = './models/' + str(base_id) + '/save_model/best_model/model.pdparams'…
-
**Describe the question**
> A clear and concise description of what the question is.
使用预训练好的模型,对readme中的例子进行测试,但是报错
![QQ截图20240301223803](https://github.com/zjunlp/DeepKE/assets/81158428/8a73b8…
-
Traceback (most recent call last):
File "main.py", line 70, in
dataManager = DataManager(configs, logger)
File "/root/ner/engines/data.py", line 56, in init
self.tokenizer = BertTokenizer.from_pre…
-
-
输入下列指令后报了上面的错误:python run_ner_softmax.py --task_name=cnerfirst --data_dir=datasets/cner --model_type=bert --model_name_or_path=prev_trained_model/bert-base-chinese --output_dir=outputsbert/ --do_trai …
-
-
尊敬的作者您好,感谢您做出的这样出彩的工作并提供模型供大家学习。我仔细学习了下模型并试图将其训练到文章报道的效果,在这个过程中我看到在最开始的文本输入时有一个bert的encoder。我想请问一下,模型的输入并没有用处理好的文本特征而是自己通过源文本经过finetune的bert encoder得到的吗?我使用文中提供的部分超参,可能是我训练的问题,无论是用数据集提供的文本特征还是自己finetu…
-
## 运行环境
* 操作系统 (Linux/macOS/Windows):Linux
* 部署方式 (Docker/windows快速部署包/自己搭的环境):Conda虚拟环境
* Python 版本 (如果是部署包可不填):python=3.10
* 代码版本/部署包版本: 2023.01.03 main branch
## 问题描述
- 模型用[Bert-vits2-V2.…
-
用这个项目[cofe-ai/fast-gector](https://github.com/cofe-ai/fast-gector)训练,会出现cpu内存持续增加直至爆掉的情况,请问您这边有遇到吗