-
您好,我使用了分类的dul在webface上进行训练,将batchsize和lr由512和0.1调整为128和0.025,在Lfw上进行测试,但是acc只能达到83%,请问这是什么原因呢
-
author: AlfredXiangWu
reference: https://github.com/AlfredXiangWu/face_verification_experiment
related: #5
- caffe framework
- CASIA-WebFace dataset: contains 493456 face images of 10575 identities.…
-
Hi, when i use FaceNet train CASIA-Webface, i first use Softmax Loss, and after 90 epoch, the model gets 98% accuracy and 95% validation rate.
Then, i want to use Triplet Loss to finetune the model, …
-
Hi, @davidsandberg:
Recent paper [SphereFace: Deep Hypersphere Embedding for Face Recognition](https://arxiv.org/abs/1704.08063) introduces a new novel LOSS definition to the face recognition tra…
-
Hello Sir,
Thank you for the models and codes you have provided. We are planning to train a face verification model on the CASIA-WebFace dataset from scratch using the "mnist_siamese_train_test.proto…
-
https://github.com/zhongyy/SFace/blob/cb5ffb3c4863eecb3abf6a80529daffb05a0e820/SFace_torch/backbone/model_mobilefacenet.py#L81
According to the paper, this should be 0,0078125 ?
-
@luhaofang 您好,我用您的代码,训练集是casia webface,一共10572类,40多万张图片,因为数据量比较大因此不使用softmax进行预训练,而是直接用triplet loss从头训练。训练到后面所有loss都是0.1,an=0,ap=0,并且使用中间的caffemodel进行测试,所有图片的128维特征向量都一样。。请问这是为什么呢?谢谢!
-
我最近在声音的一些识别工作上尝试使用SFace,发现在第一个epoch中的最初intraloss是在不停减少的,但是到后面的epoch甚至会逐渐增大,稳定在一个范围,但是错误率在下降,这是比较反优化目标,或者说这样的稳定就是把loss控制在一个合适的范围?
这是我的训练loss,我使用的是adam+Cyclical Learning Rates学习率调整策略(学习率会周期从最低到最高),这和您在…
-
您好,我使用CASIA-WebFace数据集从零开始训练,拟合后发现效果很差。
在训练过程中达到95-97%的识别率,但是使用自己的图片作为识别时几乎所有照片阈值都在0.002-0.003左右,无法区分开来。
请问能否提供下您使用的数据集和相关训练参数,我想重新训练一下。
谢谢您。
-