-
下载`chinese_pretrain_mrc_roberta_wwm_ext_large ` 到本地
参数为:
```
model_name = "roberta_wwm_ext_large" # "chinese_pretrain_mrc_macbert_large"
model_type = 'bert'
threads = 24
eval_batch_size = 64
…
-
卡在这里很久了,希望苏神赐教!
### 基本信息
- 你使用的**操作系统**: ubuntu
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本:tensorflow-gpu==1.11.0
- 你使用的**Keras**版本: 2.2.4
- 你使用的**bert4keras**版本: 0.7.8
- 你使用纯**keras**还是*…
-
我在使用测试代码的时候text_feature输出nan,但是如果不加载预训练模型就不会有这个问题,请问这是怎么回事
-
I'm trying to reproduce the performance of your model on zh_ontonotes4 and zh_msra.
We use the dataset from you(https://drive.google.com/file/d/1KHRSTL_jn5PxQqz4prQ1No2E2wWcuxOd/view?usp=sharing).
W…
ycdzj updated
2 years ago
-
# 平台(如果交叉编译请再附上交叉编译目标平台):
Linux
# Github版本:
https://github.com/alibaba/MNN/releases [2.9.0](https://github.com/alibaba/MNN/releases/tag/2.9.0)
# 编译方式:
下载:chinese-bert-wwm-ext 模型下载链接:…
-
使用docker部署,环境为ubuntu 24
在 admin 选择模型加载后无反应,查询日志如下
```
2024-07-27 21:47:03 [INFO] Loading model model_path: model1/604_epochs.pth config_path: model1/config.json [in views.load_model:74]
[2024-…
-
通过CSD过滤我获取到了较高的精准度,但召回率仅有56%,即使无过滤召回率也只有65%,请问有进一步提高召回率的思路吗,比如更换bert模型哈工大的Chinese-BERT-wwm和最新albert模型,增加更丰富的训练数据,这样可行吗?
-
load tts config from configs/纳雅.yaml
Loading Text2Semantic weights from GPT_weights/Laya_Final-e15.ckpt
Loading VITS weights from SoVITS_weights/Laya_Final_e8_s72.pth
Loading BERT weights from GPT_…
-
### .env.prod 内:
GPT_SOVITS_EMOTION_MAP='[
{
"name": "平静",
"sentences": [
{"text": "アリス、知ってます。世の中には、メイドカフェというものがあるらしいです。", "language": "ja", "path": "C:\\Users\\Administrato…
-
我修改该代码执行SQuAD2.0数据集,报错:
WARNING:tensorflow:From /usr/local/lib/python3.5/dist-packages/tensorflow/python/training/saver.py:1266: checkpoint_exists (from tensorflow.python.training.checkpoint_manageme…