-
## Description
Since the **INormalization** layer was added in TRT8.6, I do some tests with the fp16's accuracy:
1. First, I use huggingface‘s bert-base-cased, exported it to onnx(opset17). Then …
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**: win11
- 你使用的**Python**版本:
- 你使用的**Pytorch**版本: 1.8.2+cu111
- 你使用的**bert4torch**版本: 0.2.8
- 你加载的**预训练模型**:chinese-bert-wwm-ext
### 核心代码
```python
…
-
I'm trying to reproduce the performance of your model on zh_ontonotes4 and zh_msra.
We use the dataset from you(https://drive.google.com/file/d/1KHRSTL_jn5PxQqz4prQ1No2E2wWcuxOd/view?usp=sharing).
W…
ycdzj updated
2 years ago
-
卡在这里很久了,希望苏神赐教!
### 基本信息
- 你使用的**操作系统**: ubuntu
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本:tensorflow-gpu==1.11.0
- 你使用的**Keras**版本: 2.2.4
- 你使用的**bert4keras**版本: 0.7.8
- 你使用纯**keras**还是*…
-
(torch) ppop@DESKTOP-NMJBJQC:~/Chinese-CLIP$ sudo bash run_scripts/muge_finetune_vit-b-16_rbt-base.sh ~/Chinese-CLIP/datapath
Loading vision model config from cn_clip/clip/model_configs/ViT-L-14.json…
-
我在使用测试代码的时候text_feature输出nan,但是如果不加载预训练模型就不会有这个问题,请问这是怎么回事
-
下载`chinese_pretrain_mrc_roberta_wwm_ext_large ` 到本地
参数为:
```
model_name = "roberta_wwm_ext_large" # "chinese_pretrain_mrc_macbert_large"
model_type = 'bert'
threads = 24
eval_batch_size = 64
…
-
提问时请尽可能提供如下信息:
进程已结束,退出代码为 -1073741819 (0xC0000005)
### 基本信息
- 你使用的**操作系统 windows**:
- 你使用的**Python**版本: Python3.6
- 你使用的**tensorflow **版本: tensorflow 1.15.0
- 你使用的**Keras**…
-
我修改该代码执行SQuAD2.0数据集,报错:
WARNING:tensorflow:From /usr/local/lib/python3.5/dist-packages/tensorflow/python/training/saver.py:1266: checkpoint_exists (from tensorflow.python.training.checkpoint_manageme…
-
https://github.com/user-attachments/assets/d7523ba4-b5b4-435c-88b8-f4ca9353391e
这段音讯是训练出模型,使用tts第一次生成出来的音档,为一段时长为0没有声音的音档。
https://github.com/user-attachments/assets/5ecde8fa-f4da-41e8-b0b6-91333d…