Closed zhaoxixixi closed 1 month ago
作者您好,最近您的代码有部分我理解的不是很清楚; 即关于代码中求解Grad_norm的部分,您代码中是否没有使用求导数的方式得到对应的Samples权重? with torch.no_grad(): probs = F.softmax(logits, dim=1) one_hot_targets = F.one_hot(targets, num_classes=args.num_classes) grad_norm = (torch.norm(probs - one_hot_targets, dim=-1).detach().cpu().numpy()) loss = loss_per_sample.mean() # mean loss to backward ? 还有一个问题就是,如果是回归问题,这里应该如何进行修正呢? 我在IS有看见您的Issue,请问您清楚如何使用pytorh转换您询问的该代码吗?
最近拜读您的代码以及IS代码有这样的一些困惑,期待您的解答! 谢谢!
您好,感谢对我们工作的关注,以下是关于上述问题的回复:
如果还有其它需要帮助的地方,也欢迎随时沟通交流。
作者您好,最近您的代码有部分我理解的不是很清楚; 即关于代码中求解Grad_norm的部分,您代码中是否没有使用求导数的方式得到对应的Samples权重? with torch.no_grad(): probs = F.softmax(logits, dim=1) one_hot_targets = F.one_hot(targets, num_classes=args.num_classes) grad_norm = (torch.norm(probs - one_hot_targets, dim=-1).detach().cpu().numpy()) loss = loss_per_sample.mean() # mean loss to backward ? 还有一个问题就是,如果是回归问题,这里应该如何进行修正呢? 我在IS有看见您的Issue,请问您清楚如何使用pytorh转换您询问的该代码吗?
最近拜读您的代码以及IS代码有这样的一些困惑,期待您的解答! 谢谢!