Closed shuimushan closed 1 year ago
代码是这样写的
adap_loss_1 = 1 - torch.sum((wnorm * F.normalize((assign_sum_real + assign_sum_fake), p=2, dim=1)), -1)
adap_loss_2 = 1 + torch.sum(F.normalize((F.normalize(assign_sum_real, p=2, dim=1) - wnorm), p=2, dim=1) *
F.normalize((F.normalize(assign_sum_fake, p=2, dim=1) - wnorm), p=2, dim=1), -1)
其中adap_loss_1 是Lc_adapt, adap_loss_2 是Lintra
感谢您的解答!
非常感谢您分享您的工作,我想将您的思想运用到另外的领域中,由于电脑内存有限没能下载相关数据集运行代码,在阅读代码时发现两个vocabulary adaptation loss似乎与论文中有些许不同,希望您能解答我的困惑。 在论文中Lintra是通过真假脸的特征相减得到的,而代码中对应的adap_loss_1看起来是相加;论文中Lc_adapt看起来并没有数字1,代码中有加1。请问这些改动是与数据集相关的吗?