lc222 / seq2seq_chatbot

基于seq2seq模型的简单对话系统的tf实现,具有embedding、attention、beam_search等功能,数据集是Cornell Movie Dialogs
330 stars 100 forks source link

使用embedding_attention_seq2seq()训练时,内存会爆掉 #6

Open Asia-king opened 6 years ago

Asia-king commented 6 years ago

我使用embedding_attention_seq2seq()训练时,内存会爆掉,但使用embedding_run_seq2seq()不会,请问你遇到过吗?

lc222 commented 6 years ago

没有诶,内存爆掉可以试试减小batch_size

Asia-king commented 6 years ago

@lc222 batch_size他原来是512,我降到256,把输入输出的长度以增加,他还是会爆掉,是不是因为这个模型中的attention机制造成的?

lc222 commented 6 years ago

应该不会吧,attention占用内存应该挺小的,而且我没遇到过这个问题==你看看是不是自己机器性能不够

Asia-king commented 6 years ago

@lc222 应该不是机器性能的问题,我用的是32G内存的服务器,应该是其他代码的问题吧