Closed cswwp closed 2 years ago
你好, 我发现单模型cdcn在计算loss的时候只有absolute_loss 和contrastive_loss, 难道对应的类别(攻击和真人)没有计算loss吗?网络中也没有发现对应的关于真假体的分类层,可以解释下吗?感谢
也可以加多个branch (fc层) 来补个cross-entropy loss,可能能再提高一点性能。。。这个做法主要是参考 Auxiliary CVPR2018 那篇文章啦,具体原因(更有针对性地学习,直接binary分类loss不保证能学到spoofing-intrinsic的特征)和细节参考我们文章和Auxiliary文章。
你好, 我发现单模型cdcn在计算loss的时候只有absolute_loss 和contrastive_loss, 难道对应的类别(攻击和真人)没有计算loss吗?网络中也没有发现对应的关于真假体的分类层,可以解释下吗?感谢
也可以加多个branch (fc层) 来补个cross-entropy loss,可能能再提高一点性能。。。这个做法主要是参考 Auxiliary CVPR2018 那篇文章啦,具体原因(更有针对性地学习,直接binary分类loss不保证能学到spoofing-intrinsic的特征)和细节参考我们文章和Auxiliary文章。
可是最后提交的应该是每张rgb的real or fake 标签吧, 包括对应的acer应该是用predict的标签和GT标签计算得到, 请问您在直接预测深度图后还经过了什么后处理或者有别的什么操作?
同问,测试时得到的map_score在[0,1]之间,与最终的fake or real分类有啥关联?是有个阈值吗?
你好, 我发现单模型cdcn在计算loss的时候只有absolute_loss 和contrastive_loss, 难道对应的类别(攻击和真人)没有计算loss吗?网络中也没有发现对应的关于真假体的分类层,可以解释下吗?感谢