Liubinggunzu / VLAD-VSA

VLAD-VSA: Cross-Domain Face Presentation Attack Detection with Vocabulary Separation and Adaptation
MIT License
13 stars 2 forks source link

请问vocabulary adaptation的loss为什么看起来与论文中不同? #6

Closed shuimushan closed 1 year ago

shuimushan commented 1 year ago

非常感谢您分享您的工作,我想将您的思想运用到另外的领域中,由于电脑内存有限没能下载相关数据集运行代码,在阅读代码时发现两个vocabulary adaptation loss似乎与论文中有些许不同,希望您能解答我的困惑。 在论文中Lintra是通过真假脸的特征相减得到的,而代码中对应的adap_loss_1看起来是相加;论文中Lc_adapt看起来并没有数字1,代码中有加1。请问这些改动是与数据集相关的吗?

Liubinggunzu commented 1 year ago

代码是这样写的

adap_loss_1 = 1 - torch.sum((wnorm * F.normalize((assign_sum_real + assign_sum_fake), p=2, dim=1)), -1)
adap_loss_2 = 1 + torch.sum(F.normalize((F.normalize(assign_sum_real, p=2, dim=1) - wnorm), p=2, dim=1) *
                                        F.normalize((F.normalize(assign_sum_fake, p=2, dim=1) - wnorm), p=2, dim=1), -1)

其中adap_loss_1 是Lc_adapt, adap_loss_2 是Lintra

shuimushan commented 1 year ago

感谢您的解答!