-
```
docker: Error response from daemon: OCI runtime create failed: container_linux.go:370: starting container process caused: process_linux.go:459: container init caused: Running hook #1:: error runn…
-
请问下已经放出的中文预训练模型是否加入了 类似bert-wwm中利用JIEBA 分词工具的全词making呢 如果没有, 假如的方式是类似于bert-wwm吗?
-
我观察BuildData在预处理NYT_star数据集的时候,内存占用很少。但是昨天我使用一个中文样本集做预处理的时候,发现在add_token_span的时候发生了内存溢出(20GB内存被占满)的问题。我的样本集总览是这样的:
> 样本集中最小文本长度 : 600 CHAR
> 样本集前 10% 文本最大长度 : 5092 CHAR
> 样本集前 20% 文本最大长度 : 6216 CHA…
-
您好,请问是否wwm是否也是可以像谷歌bert一样,Using BERT to extract fixed feature vectors呢
-
## Environment info
- `transformers` version: 4.2.2
- Platform: n1-standard-64 Google Cloud
- Python version: 3.7
- PyTorch version (GPU?): 1.7 XLA
- Tensorflow version (GPU?):
- Using GPU in sc…
-
**Rasa version**:
2.2.6
**Rasa SDK version** (if used & relevant):
**Rasa X version** (if used & relevant):
**Python version**:
3.7
**Operating system** (windows, osx, ...):
osx, ub…
-
# coding:utf-8
import sys, json
import torch
import os
import numpy as np
import opennre
from opennre import encoder, model, framework
import sys
import os
import argparse
import logging
…
-
您好!采用您的框架做问句匹配,分开对query1,query2编码时,会报错,请问能解决吗?
调用方式:
model = build_transformer_model(
config_path=config_path,
checkpoint_path=checkpoint_path,
model=bert_type,
return_keras_mo…
-
再打扰您一下,我想请教一下为什么我这边测试的时候是错误的,不使用use_distant_trigger,我看模型输入的是 list, 不是tensor,还有就是 tmp_trigger_pred = trigger_model(**trigger_inputs)[0][0]测试的模型后面是【0】【0】 训练的时候是loss = model(**batch_data)[0] 请问这块是代码本身的问题…
-
Hi! I've run into an issue tokenizing some noisy text from the web using the `BertWordPieceTokenizer`. Specifically, unrecognizable characters are tokenized as UNK with the original BERT WordPiece t…