Open mymagicpower opened 11 months ago
对于量化的模型 'THUDM/chatglm-6b-int8',torch.jit.trace 的时候会报错。 Could not export Python function call 'W8A16Linear'. Remove calls to Python functions before export.
能正常,trace 出 'THUDM/chatglm-6b-int8' 模型。
torch.jit.trace(xxx,xxx)
这个问题与环境无关。
No response
Is there an existing issue for this?
Current Behavior
对于量化的模型 'THUDM/chatglm-6b-int8',torch.jit.trace 的时候会报错。 Could not export Python function call 'W8A16Linear'. Remove calls to Python functions before export.
Expected Behavior
能正常,trace 出 'THUDM/chatglm-6b-int8' 模型。
Steps To Reproduce
torch.jit.trace(xxx,xxx)
Environment
Anything else?
No response