Open skJack opened 4 years ago
我也遇到了同样的问题,用作者预训练的模型直接在测试集上测试得到ACER达到了0.505,请问您解决了这个问题吗
@boom9807 请问你的问题解决了吗,我也遇到了同样的问题,结果和猜的一样
@boom9807 我也遇到了这个问题,请问有人找到解决办法了吗?
你们这0.5的,应该都是数据源就不对。论文都没看嘛?作者用的是深度图训练和测试的,你用rgb进去肯定没效果啊。
这个是因为原始下载的代码当中,对于test的标签文件,有一句代码被注掉了,采用了随机的标签值。在read_data.py文件下。 if self.phase_test:#测试阶段 depth_dir = self.depth_dir_test label_dir = self.label_dir_test label = int(label_dir[idx])
label = np.array(label)
上面这个我已经改回来了。原始代码用的是label = np.random.randint(0,2,1),这个标签是随机的。所以检测效率是0.5左右。
这个是因为原始下载的代码当中,对于test的标签文件,有一句代码被注掉了,采用了随机的标签值。在read_data.py文件下。 if self.phase_test:#测试阶段 depth_dir = self.depth_dir_test label_dir = self.label_dir_test label = int(label_dir[idx])
label = np.random.randint(0,2,1)
label = np.array(label)
上面这个我已经改回来了。原始代码用的是label = np.random.randint(0,2,1),这个标签是随机的。所以检测效率是0.5左右。
你现在是用什么数据测试的,精度大概咋样?
我用的数据集下的深度图啊,97%左右。
我用的数据集下的深度图啊,97%左右。
哦哦,深度图的话,没啥用的。我随便调了下参,都到了99·7%了。。
我的测试结果和楼主的类似,你都调了下什么参数啊?
你说的是在这些epoch中最高的识别率吧。我这里也有一个,可以达到99。1% epoch: 48 EER: 0.009852 TPR@FPR=10E-2: 0.990277 TPR@FPR=10E-3: 0.943292 APCER:0.010683 NPCER:0.009222 AUC: 0.99943708 Acc:98.976 TN:39822 FP : 430 FN:161 TP:17297 ACER:0.00995242
@boom9807 我也遇到了这个问题,请问有人找到解决办法了吗?
你解决了吗
您好,请问您对原始的深度图有什么处理吗,因为使用您预训练模型对测试集进行测试结果如下: 远比您的结果差。 (其他设置都没有变)