Open siyu1992 opened 4 years ago
在Sentiment-Analysis-Chinese-pytorch.py文件的LSTM_attention方法中, LSTM_attention的forward方法,encoder的LSTM输入如下: states, hidden = self.encoder(embeddings.permute([0, 1, 2]))#[batch, seq_len, embed_dim]
在LSTM中也没有定义batch_first=True,这样LSTM输入的上下文是不是会有问题,序列都变成按列读了,这个是不是需要修复一下,或者有别的用意呢?谢谢
我也觉得是应该是需要batch_first的
在Sentiment-Analysis-Chinese-pytorch.py文件的LSTM_attention方法中, LSTM_attention的forward方法,encoder的LSTM输入如下: states, hidden = self.encoder(embeddings.permute([0, 1, 2]))#[batch, seq_len, embed_dim]
在LSTM中也没有定义batch_first=True,这样LSTM输入的上下文是不是会有问题,序列都变成按列读了,这个是不是需要修复一下,或者有别的用意呢?谢谢