-
After convert bert model to long version, i try to load, but falled
Error(s) in loading state_dict for RobertaLongForMaskedLM:
size mismatch for embeddings.position_ids: copying a param with shape …
-
大佬好,我的一个数据集只有约为1000条样本,1小时20分钟,请问怎么在现有模型上微调?多谢!
-
我使用 **AutoModel.from_pretrained** 来替代 **build_transformer_model(config_path, checkpoint_path)** 作为backbone后,发现模型训练过程不会更新backbone的参数( requires_grad=True),而其他的加上的 linear 层还是正常更新的。
请问能提示下是哪里的问题吗?
-
我这边换了一套音素系统,可以训练,但是测试的时候提示是textencoder这个地方 x和b的维度不同,也就是bert提取的维度和text音素的维度对不上,大佬有建议吗
def forward(self, x, x_lengths, bert):
x = self.emb(x) * math.sqrt(self.hidden_channels) # [b, t, h]
…
zdj97 updated
11 months ago
-
Hi,
thank u for sharing ur code with us. As I understand, the results of APC are affected by those of AE aren t they ?
you use the extracted aspect terms to identify the sentiment polarities inste…
-
用以下模型对一个法律判决书做问答抽取信息:
```
'luhua/chinese_pretrain_mrc_roberta_wwm_ext_large'
'luhua/chinese_pretrain_mrc_macbert_large'
```
抽取被告人、徒刑等信息都正常,但是想抽取依据的法律和条文,怎么也得不到想要的效果。
比如抽取这一…
-
when I display gpt2 or bert attentions, It's truncated and doesn't show the whole thing,how can i fix this?
![image](https://user-images.githubusercontent.com/51944774/92069014-ecd11400-edda-11ea-…
-
i use unsloth to fine tune llama 3-8B..., after traning complete i save this model to hugging face by using 'push_to_hub', but it shows these files :
.gitattributes
README.md
adapter_config.json
…
-
卡在这里很久了,希望苏神赐教!
### 基本信息
- 你使用的**操作系统**: ubuntu
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本:tensorflow-gpu==1.11.0
- 你使用的**Keras**版本: 2.2.4
- 你使用的**bert4keras**版本: 0.7.8
- 你使用纯**keras**还是*…
-
Goal: better feature/model discoverability for the GluonNLP website
### Side Navigation Bar
* Installation
* Models
* Tutorials
* Demos (in the future)
* API Documentations
* Community…