Open gctian opened 1 year ago
vocab.json中有 106029个 Token,但是模型最终生成的logit向量的维度的 107008,为什么不一致呢?这样就会出现有些 token无法解码吧?
同问,我目前在多个模型中发现token的vocab_size小于generate后的logit的size,请问楼主有解决吗
已解决,可以参看qwen中的issues,具体原因时model中为了和128 size对齐 提高运算效率,导致vocab_size在model中会大于token中实际的vocab_size。
vocab.json中有 106029个 Token,但是模型最终生成的logit向量的维度的 107008,为什么不一致呢?这样就会出现有些 token无法解码吧?