-
```
library(keras)
imdb
-
因为此模型运行在我的一块GPU上(共有两块TITAN X),训练很慢(大概3000s/epoch),请问此模型是否可以进行多GPU并行训练?比如应该如何修改代码?或者其它方法的优化来提高收敛速度。期待您的回复~
-
您好!我在您的Chinese NER Using Lattice LSTM论文的resume数据集上进行实验,只修改了配置文件,训练了100个epoch,但是训练过程中每次在dev和test上评测的f1值都是10%~20%,十分不理想。配置文件如下:
### use # to comment out the configure item
### I/O ###
train_dir=dat…
-
When I run the `conv_lstm.R` example, I get the following error:
```
Error in py_call_impl(callable, dots$args, dots$keywords) :
TypeError: update() takes from 2 to 3 positional arguments but 4 …
-
作者您好:
我用ontonote,weibo,resume,msr数据集(BMEOS模式)在您的原始代码(参数等均未改动)上跑了使用average strategy的实验,其中在msr数据集上能完全复现您论文汇报的结果。其余数据集上比您论文汇报的结果要低一些,请问是由于随机种子的原因还是需要额外的调参?
我跑出的实验结果如下:
ontonote:73.36(论文73.98)
weibo n…
-
您好,我对数据集内容还有部分疑问,烦请解答
1、项目中dev\test\train三个文件分别是做什么用的数据集?
2、这些数据集中的标注是人工标注的吗?
3、训练好的模型是如何测试准确率的?
谢谢!
-
Right now translator seems to assume that one word is fed into the decoder for each time step, and that each word is simply an integer that can be looked up in an embedding table:
`self.decoder.add_i…
-
我根据您的代码,仅仅用char embedding来复现基于char的weibo和MSRA实验,我发现webo和MSRA的结果都达不到论文中的引用值,weibo test只有: 0.475, 论文中是0.5277; MSRA test只有85.75,论文中是88.81。所以,我想请教一下作者,这大概是什么原因造成的?我调试了很久,但是始终没有太大的提升。
-
gpu=True,但是也没用GPU, 哪儿需要改动,model后面加个cuda()就完了吗?还是还有其他也要改。
-