Open 2anchao opened 1 year ago
Laplacian aleatoric uncertainty loss在论文中描述如下:
代码中的写法: loss = 1.4142 torch.exp(-log_variance) torch.abs(input - target) + log_variance 自己认为对齐的写法: loss = 1.4142 * log_variance*-1 torch.abs(input - target) + totch.log(log_variance)
包括在推理中的sigma值对score进行refine,我认为您使用torch.exp(log_variance)代替了原来的log_variance,将不确定性分布指数化,使其值域>0, 感觉这种做法有益,但具体说不上来,请帮忙解答一下。
Laplacian aleatoric uncertainty loss在论文中描述如下:
代码中的写法: loss = 1.4142 torch.exp(-log_variance) torch.abs(input - target) + log_variance 自己认为对齐的写法: loss = 1.4142 * log_variance*-1 torch.abs(input - target) + totch.log(log_variance)
包括在推理中的sigma值对score进行refine,我认为您使用torch.exp(log_variance)代替了原来的log_variance,将不确定性分布指数化,使其值域>0, 感觉这种做法有益,但具体说不上来,请帮忙解答一下。