THUDM / ChatGLM3

ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型
Apache License 2.0
13.19k stars 1.52k forks source link

但是这样做代码会自动复原,加入的代码就被冲刷掉了> 请问你解决了吗? #1262

Closed AHPUymhd closed 1 week ago

AHPUymhd commented 1 month ago
          > 请问你解决了吗?

这种方法是可以的绕过这个错误的, 将下载模型文件夹中的modeling_chatglm.py文件,大约1006行的位置如下操作

for response in output.split("<|assistant|>"):
            metadata, content = response.split("\n", maxsplit=1)

修改成

for response in output.split("<|assistant|>"):
            if('\n' not in response):
                response = '\n'+response
            metadata, content = response.split("\n", maxsplit=1)

相当于对产生的结果进行安全判断一次,但是这种情况出现的原因仍然没办法在微调后解决,即便已经输出的文本前添加了'\n'。

Originally posted by @LittleGreenYuan in https://github.com/THUDM/ChatGLM3/issues/227#issuecomment-1804897902

Solenyalyl commented 1 week ago

请注意修改的文件是你下载的原始的那一个modeling_chatglm.py,而不是后来生成的那一个modeling_chatglm.py