THUDM / ChatGLM2-6B

ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
Other
15.68k stars 1.85k forks source link

[BUG/Help] <ptuning的微调方式,合并权重到basemodel的代码和方法有么?> #610

Open cyrishe opened 10 months ago

cyrishe commented 10 months ago

Is there an existing issue for this?

Current Behavior

我在做一些模型微调,希望比较各种微调方式的效果。 Ptuning的效果应该还不错,所以想合并到base model中。 我看到Repo提供的ptuning代码好像没有用到PEFT库(PEFT库自己有adapter合并的支持),我希望合并prefix层,请问有已经实现的方法么?

Expected Behavior

No response

Steps To Reproduce

希望给出合并的代码或者方法。

Environment

- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :

Anything else?

No response