Open leixingzhi7 opened 1 month ago
models里面没必要做logits=self.softmax(logits),本身输出就是logits,后面用的是CrossEntropyLoss,里面会做softmax,虽然结果不影响,但是这步骤确实是多余了
具体原因忘记了,可能是我当时尝试了很多的loss函数和模型结构来改进精度,不过目前没有其他影响。
models里面没必要做logits=self.softmax(logits),本身输出就是logits,后面用的是CrossEntropyLoss,里面会做softmax,虽然结果不影响,但是这步骤确实是多余了