Closed super233 closed 4 years ago
遇到相同的问题,发现只要训练到2000次以上就会出现,请问大佬当时是如何解决的?
我当时把 decoder_learning_ratio
设为1.0
后,训练起来就还不错
收到,非常感谢,我修改运行试试。
------------------ 原始邮件 ------------------
发件人: Super233 notifications@github.com
发送时间: 2020-04-22 14:28:51
收件人:Doragd/Chinese-Chatbot-PyTorch-Implementation chinese-chatbot-pytorch-implementation@noreply.github.com
抄送:廖志芳 13902220306@139.com,Comment comment@noreply.github.com
主题: Re: [Doragd/Chinese-Chatbot-PyTorch-Implementation] 关于训练时出现的NaN问题 (#5)
我当时把 decoder_learning_ratio设为1.0 后,训练起来就还不错
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
大佬您好,我再使用您的代码训练
qingyun
数据时,出现Encoder的输出全部为nan,进而导致loss为nan,请问您当时遇到过这种情况吗?