Open DeepDetector opened 2 years ago
您好!FF++数据集中的c23和c40视频数据都来自于官方的仓库:https://github.com/ondyari/FaceForensics 同时,如果要对自己的视频以相同的方式生成压缩后的c23和c40版本,在https://github.com/ondyari/FaceForensics/tree/master/dataset 中的第4点有教程,是利用ffmpeg实现的。
好的,十分感谢!
学长您好~我发现您的论文中有关于模型参数和训练时间的实验对比,请问这是要自己复现的还是?(因为没有发现原论文有相关数据)
您好,训练时间(包括预处理和训练)这部分的数据大部分都是我自己复现的,我是相同的CPU和GPU环境设置下进行的实验。其中预处理的部分统一采用的是OpenFace的工具包,训练的部分X-Ray和TSN这两个模型是预估的时间,前者是根据它数据增强的倍数(相当于数据集扩大了多少倍)推测的,后者是根据TSN原论文中描述的训练时间估算的。
您好,训练时间(包括预处理和训练)这部分的数据大部分都是我自己复现的,我是相同的CPU和GPU环境设置下进行的实验。其中预处理的部分统一采用的是OpenFace的工具包,训练的部分X-Ray和TSN这两个模型是预估的时间,前者是根据它数据增强的倍数(相当于数据集扩大了多少倍)推测的,后者是根据TSN原论文中描述的训练时间估算的。
了解~谢谢学长
学长您好,有个新问题想要请教一下您,是关于跨数据集的实验。 当训练和测试在不同数据集时,随着训练的进行在测试集也不好收敛,这时AUC是怎么取?(取最高还是平均值)
你好你好,我是这样操作的:选取的模型参数是训练和测试在同一个数据集下,测试集性能最好的那个参数,然后拿这个参数去不同的数据集上进行评估。最后多次重复上述的步骤,取平均,得到模型的跨数据集泛化性能。 我感觉这样评估应该会更加公平:smile: 因为测试跨数据集性能模拟的就是现实场景中不知道测试数据分布的情况,所以选用的模型参数自然只能用自己手中已有的那部分数据来确定。
你好你好,我是这样操作的:选取的模型参数是训练和测试在同一个数据集下,测试集性能最好的那个参数,然后拿这个参数去不同的数据集上进行评估。最后多次重复上述的步骤,取平均,得到模型的跨数据集泛化性能。 我感觉这样评估应该会更加公平😄 因为测试跨数据集性能模拟的就是现实场景中不知道测试数据分布的情况,所以选用的模型参数自然只能用自己手中已有的那部分数据来确定。
了解~谢谢学长再次答疑解惑😄
大佬您好,请问C23和C40的视频是如何生成的?