-
it seems [bert-vits2](https://github.com/fishaudio/Bert-VITS2) performance better. and i have transformed the bert-vits2 to TensorRT[Bert-VITS2-Faster](https://github.com/foocker/Bert-VITS2-Faster) (t…
-
In this branch: https://github.com/huggingface/safetensors/compare/julien-c/js I pushed a proof-of-concept of how, given the simplicity of the format, one can fetch metadata about the weights over sma…
-
您好!复现论文结果时需要加载relm-m0.3.bin文件并配合README中的参数吗 如果需要的话是使用default=""还是state_dict=torch.load("relm-m0.3.bin")
-
-03-13 18:32:46,781 - utils.py[line:286] - INFO: RapidOCRPDFLoader used for /root/autodl-tmp/Langchain-Chatchat/knowledge_base/doc-1701875989560164354/content/526062814771613696-百度推广签约合同(2).pdf
Rapid…
-
Model name 'F:\MLP\2023_Summer\Git\Self-MM\pretrained_model\bert-base-uncased' not found in model shortcut name list (bert-base-uncased, bert-large-uncased, bert-base-cased, bert-large-cased, bert…
-
Great work!
I want to train the nougat-base at chinese ocr task, so I need to change the tokenizer.json
I got a question?
If train the model from mbart scratch, can it work?
-
我用的是portable最新版本,第一遍运行,得到如下错误信息:
`!!!GPT_SoVITS path was added to K:\ComfyUI_windows_portable\python_embeded\Lib\site-packages/users.pth
if meet `No module` error,try `python main.py` again
GPT_…
-
## 一开始照搬模型设置训练了一个大型数据集,始终无法收敛到理想区间,又拿斗破来修改模型参数玩了个把星期,各种调参。
### 总结如下:
#### 1. 模型的收敛取决于词嵌入的维度,维度越大收敛越快越好。(有没有上限就懒得去测试了,电费要紧。)
#### 2.head与隐藏层数可以适当裁剪,隐藏层可以设置高一些,multi-head感觉超过5层之后似乎对于生成的结果影响并不大。
…
-
-
当前我在以您的RoBERTa-wwm-ext-large为基础PTM,意图通过Fine-tuning的方式将其适用于某一垂直领域,当前模型不收敛,所以有下面的问题想请教:
1 分词粒度问题:基于该领域的用词特点,表示一些完整含义的词要8个字以上,这样后面做NER的时候,可能会界限更加重合,不知道较长的分词,会不会影响到收敛
2 1.2G的训练语料,适用的学习率推荐是多少?我当前选择的是1e-3…