Walleclipse / Deep_Speaker-speaker_recognition_system

Keras implementation of ‘’Deep Speaker: an End-to-End Neural Speaker Embedding System‘’ (speaker recognition)
247 stars 81 forks source link

checkpoints/model_17200_0.54980.h5模型问题 #28

Closed liangyanfeng closed 4 years ago

liangyanfeng commented 5 years ago

你好, 请问 checkpoints/model_17200_0.54980.h5 这个模型是在什么情况下生成的?

在train-clean-100数据集直接用 select_batch 的triplet-loss进行训练, 得到的模型 大体在 7%, 是否 是因为 还没有训练完全? 下面是训练过程的 summary:

image image image image image

训练过程中得到了 一个 best model : best_model53600_0.03806.h5 使用这个模型 在 test-clean 上测试 得到 EER = 7%~10%

在训练或者 测试过程中,我遗漏了什么 或者 还有 什么 tricks 的吗? 期待你的回复,谢谢!

再次 感谢您上传如此优质的项目!

Walleclipse commented 5 years ago
  1. 首先 best model 确实不是在测试集上表现最好的(这个很有可能有点过拟合到验证集),我的 5%的eer应该是某一步的ckpt。
  2. 首先数据处理的时候 需要去除静音,不知道你做了没有? 如果你直接运行了pre_process.py 那么就去除了静音。
  3. 我得到 5% 的eer应该是在 train-clean-100的基础上加了 train-clean-360 这个数据集,也就是说我数据更多。
  4. 你可以试试先用 pretraining.py 进行预训练再用 triplet-loss 训练。
  5. 多训练几轮
liangyanfeng commented 5 years ago

数据使用 pre_process.py 是去静音了, 训练集只用了train-clean-100; 加上 train-clean-360 我再跑一下,非常感谢你的回复!

Fansgithub2019 commented 5 years ago

你好, 请问 checkpoints/model_17200_0.54980.h5 这个模型是在什么情况下生成的?

在train-clean-100数据集直接用 select_batch 的triplet-loss进行训练, 得到的模型 大体在 7%, 是否 是因为 还没有训练完全? 下面是训练过程的 summary:

image image image image image

训练过程中得到了 一个 best model : best_model53600_0.03806.h5 使用这个模型 在 test-clean 上测试 得到 EER = 7%~10%

在训练或者 测试过程中,我遗漏了什么 或者 还有 什么 tricks 的吗? 期待你的回复,谢谢!

再次 感谢您上传如此优质的项目!

请问一下您,“直接用 select_batch 的triplet-loss进行训练,”是怎样怎样训练的?怎样修改运行代码呢

izhangy commented 4 years ago

请问“checkpoints / model_17200_0.54980.h5”是运行哪一个文件生成的?我无法得到这个训练模型保存的结果

Walleclipse commented 4 years ago

请问一下您,“直接用 select_batch 的triplet-loss进行训练,”是怎样怎样训练的?怎样修改运行代码呢

constants.py中 设置 PRE_TRAIN=False,随后就不会pretrain直接用select_batch 的triplet-loss进行训练

Walleclipse commented 4 years ago

请问“checkpoints / model_17200_0.54980.h5”是运行哪一个文件生成的?我无法得到这个训练模型保存的结果

这个就是我在运行 train.py 到第17200步的时候产的,随后测试的eer=0.54980。当然每个人训练的时候产生的checkpoint不太一样,所以eer一般情况不等于我的这个checkpoint.