-
Hello, I was wondering if we can replace the BERT for current supported models
```python
Languages.JP: BASE_DIR / "bert" / "deberta-v2-large-japanese-char-wwm",
Languages.EN: BASE_DIR / "…
-
看了很多相关的模型,大多是基于短句对训练的,我的使用场景是:
我把资源的名称还有有标签等文本转稠密向量存在 ES 里,然后通过 ES 的 kNN 方式来检索资源。
这里的文本更多是一个个的词而不是短句,试过 Bert 家族 roberta 类型的中文模型 Chinese-BERT-wwm,不是很理想,经常不搭边的词会得到非常高的分数,试了 BAAI/bge-large-zh-v1.5 …
-
RuntimeError: mat1 and mat2 shapes cannot be multiplied (11264x1024 and 768x6)
当
```
'roberta': (
'transformers.BertTokenizer',
'transformers.RobertaModel',
'transforme…
-
bert-as-service can support bert-wwm-ext model released in https://github.com/ymcui/Chinese-BERT-wwm
-
D:\asdasd\AI\GPT-SoVITS-Server-main\GPT-SoVITS-Server-main>python server.py
DirectML可用,将使用DirectML进行推理加速。
设备名称: NVIDIA GeForce GTX 1650
Traceback (most recent call last):
File "D:\asdasd\AI\GPT-…
-
我要做的项目是要求用roberta的,请问各位大佬我可以直接把chinese-roberta-wwm-ext对应的模型和vocab放在 bert_pretain目录下然后直接训练吗?
-
你的Bert的预训练模型用的是什么版本的?bert-base-chinese?还是bert-wwm?还是chinse-roberta-wwm?
-
Hi, If I would like to apply the diversity selection methodology on Chinese SFT dataset (let's say Alpaca-cn-gpt4), can I simply change the model to a chinese-bert(https://huggingface.co/bert-base-chi…
nuoma updated
3 months ago
-
你的微盘里的chinese-bert-wwm 还是 chinese-bert-wwm-ext
-
我试了DUIE中文数据集代码能够跑通,用的chinese-bert-wwm-ext的预训练模型和中文vocab,但是换到bert-base-cased模型和英文vocab在英文数据集上训练时,就报错下面的错误,不知道啥原因,关系数目也改了,是代码中还有需要修改的地方吗,还是用源代码才能跑?
![LYBLK2ZDJSP0`32K(_R JM6](https://github.com/user-at…