Closed liangyanfeng closed 4 years ago
pre_process.py
那么就去除了静音。pretraining.py
进行预训练再用 triplet-loss 训练。数据使用 pre_process.py 是去静音了, 训练集只用了train-clean-100; 加上 train-clean-360 我再跑一下,非常感谢你的回复!
你好, 请问 checkpoints/model_17200_0.54980.h5 这个模型是在什么情况下生成的?
在train-clean-100数据集直接用 select_batch 的triplet-loss进行训练, 得到的模型 大体在 7%, 是否 是因为 还没有训练完全? 下面是训练过程的 summary:
训练过程中得到了 一个 best model : best_model53600_0.03806.h5 使用这个模型 在 test-clean 上测试 得到 EER = 7%~10%
在训练或者 测试过程中,我遗漏了什么 或者 还有 什么 tricks 的吗? 期待你的回复,谢谢!
再次 感谢您上传如此优质的项目!
请问一下您,“直接用 select_batch 的triplet-loss进行训练,”是怎样怎样训练的?怎样修改运行代码呢
请问“checkpoints / model_17200_0.54980.h5”是运行哪一个文件生成的?我无法得到这个训练模型保存的结果
请问一下您,“直接用 select_batch 的triplet-loss进行训练,”是怎样怎样训练的?怎样修改运行代码呢
在 constants.py
中 设置 PRE_TRAIN=False
,随后就不会pretrain直接用select_batch 的triplet-loss进行训练
请问“checkpoints / model_17200_0.54980.h5”是运行哪一个文件生成的?我无法得到这个训练模型保存的结果
这个就是我在运行 train.py 到第17200步的时候产的,随后测试的eer=0.54980。当然每个人训练的时候产生的checkpoint不太一样,所以eer一般情况不等于我的这个checkpoint.
你好, 请问 checkpoints/model_17200_0.54980.h5 这个模型是在什么情况下生成的?
在train-clean-100数据集直接用 select_batch 的triplet-loss进行训练, 得到的模型 大体在 7%, 是否 是因为 还没有训练完全? 下面是训练过程的 summary:
训练过程中得到了 一个 best model : best_model53600_0.03806.h5 使用这个模型 在 test-clean 上测试 得到 EER = 7%~10%
在训练或者 测试过程中,我遗漏了什么 或者 还有 什么 tricks 的吗? 期待你的回复,谢谢!
再次 感谢您上传如此优质的项目!