Open Asia-king opened 6 years ago
我使用embedding_attention_seq2seq()训练时,内存会爆掉,但使用embedding_run_seq2seq()不会,请问你遇到过吗?
没有诶,内存爆掉可以试试减小batch_size
@lc222 batch_size他原来是512,我降到256,把输入输出的长度以增加,他还是会爆掉,是不是因为这个模型中的attention机制造成的?
应该不会吧,attention占用内存应该挺小的,而且我没遇到过这个问题==你看看是不是自己机器性能不够
@lc222 应该不是机器性能的问题,我用的是32G内存的服务器,应该是其他代码的问题吧
我使用embedding_attention_seq2seq()训练时,内存会爆掉,但使用embedding_run_seq2seq()不会,请问你遇到过吗?