Closed Sundy1219 closed 1 year ago
还有我想从某个checkpoint恢复,继续训练,你们这参数在哪设置?谢谢
你好,我用你们v2的版本,跑通aishell recipe.看了训练过程中打印出的log,有点不太懂每一列的含义, 1)为啥loss还能负值呢,还有括号里的值含义是啥?Loss_real的含义还有括号里的含义,希望可以详细解释下,比如:
Epoch: [1][ 940/11260] Time 1.033 ( 0.931) Data 0.023 ( 0.031) Loss -2.0485e+01 (-1.2205e+00) Loss_real 6.3320e+01 (7.0811e+01)
谢谢
你好,
loss_real=loss+path_weight
path_weight是与模型更新无关的一个参数(通过den-lm计算得到),因此loss_real.backward()
等价于loss.backward()
train.py
中使用--resume=/path/to/checkpoint
选项即可好的,谢谢,现在在解码时,遇到了如下报错信息,
从这看貌似是restore不进去,可我在训练时,restore重新训练,没问题.因为conformer需要的显存过大,我的改动是将conformer的层数还有隐藏层节点改小了.解码参数,将nj改成了1.采用一个GPU解码,其它的没改动过了
你好,我检查了一下,看起来是因为我们最近合并一个分支的时候的修改造成了这个问题,请尝试将以下几行代码删除
然后重新运行解码
很感谢您的及时回复,目前解码正常.下图这里--world-size不知道是不是应该改成--world_size,这在CAT/scripts/ctc-crf/calculate_logits.py脚本中,因为我没看到args.world-size,只看到了args.world_size
这个不影响,python的argparse模块中,会自动将变量名中的-
替换为_
,所以变量名会是args.world_size
好的,明白了,Mono-phone + CTC-CRF比单纯的Mono-phone + CTC提升很明显吗?有测试过串词的指标吗?就是明明是指令A,却识别成指令B
比较系统的CTC/CTC-CRF性能对比可以参考我们此前的工作 CRF-BASED SINGLE-STAGE ACOUSTIC MODELING WITH CTC TOPOLOGY
你说的“串词”是否是指我们常统计CER/WER中的替换错误?在我的实验(数据集规模100-1000 hours)中,CTC-CRF的表现是一致的优于CTC的
可能和替换的概念不大一样,我也跑了aishell 基于ctc和ctc-crf的对比实验,实验结果,确实ctc-crf要好些.你们有没有考虑过在此基础上再加个CE Loss,那就和kaldi的chain模型比较接近了
你好,我用你们v2的版本,跑通aishell recipe.看了训练过程中打印出的log,有点不太懂每一列的含义, 1)为啥loss还能负值呢,还有括号里的值含义是啥?Loss_real的含义还有括号里的含义,希望可以详细解释下,比如:
Epoch: [1][ 940/11260] Time 1.033 ( 0.931) Data 0.023 ( 0.031) Loss -2.0485e+01 (-1.2205e+00) Loss_real 6.3320e+01 (7.0811e+01)
谢谢