-
预训练这行代码:t5.load_weights_from_checkpoint(checkpoint_path),报错:
not Founderror:key encoder/final_layer_norm/scale not found in checkpoin.
苏神,请问怎么解决?
-
苏神你好,直接下载nezha的预训练模型,进行预测的时候,报输入错误,
我看了下,输入的时候feed_input_name 要求是:['Input-Token', 'Input-Segment']
但是输入的x是[[ 101 2408 2336 5401 7608 2458 2391]],维度不对应,这个要如何修改
```
Sampling: 5%|▍ | 6/12…
-
请问在bert4keras实现中,能否支持像pytorch的fp16混合精度训练呢,是否可能?
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**:
- 你使用的**Python**版本:
- 你使用的**Tensorflow**版本:
- 你使用的**Keras**版本:
- 你使用的**bert4keras**版本:
- 你使用纯**keras**还是**tf.keras**:
- 你加载的**预训练模型**:
### 核心…
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**: win10
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本:tensorflow-gpu 1.14.0
- 你使用的**Keras**版本: 2.3.1
- 你使用的**bert4keras**版本: 最新
- 你使用纯**keras**还是**tf.k…
-
目前bert4keras可以实现仅使用encoder的预训练权重,并且随机初始化embedding层的权重吗
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**: macosx bigsur
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本: 1.15.2
- 你使用的**Keras**版本:
- 你使用的**bert4keras**版本: pip install git+https://www.github.com/…
-
# bert配置
transformer_model='multi_cased_L-12_H-768_A-12'
transformer_model_path=os.path.join(bert_model_path,transformer_model)
config_path = transformer_model_path+'/bert_confi…
-
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**:
- 你使用的**Python**版本:
- 你使用的**Tensorflow**版本:
- 你使用的**Keras**版本:
- 你使用的**bert4keras**版本:
- 你使用纯**keras**还是**tf.keras**:
- 你加载的**预训练模型**:
### 核心…