Closed AHPUymhd closed 1 week ago
> 请问你解决了吗?
这种方法是可以的绕过这个错误的, 将下载模型文件夹中的modeling_chatglm.py文件,大约1006行的位置如下操作
for response in output.split("<|assistant|>"): metadata, content = response.split("\n", maxsplit=1)
修改成
for response in output.split("<|assistant|>"): if('\n' not in response): response = '\n'+response metadata, content = response.split("\n", maxsplit=1)
相当于对产生的结果进行安全判断一次,但是这种情况出现的原因仍然没办法在微调后解决,即便已经输出的文本前添加了'\n'。
Originally posted by @LittleGreenYuan in https://github.com/THUDM/ChatGLM3/issues/227#issuecomment-1804897902
请注意修改的文件是你下载的原始的那一个modeling_chatglm.py,而不是后来生成的那一个modeling_chatglm.py
这种方法是可以的绕过这个错误的, 将下载模型文件夹中的modeling_chatglm.py文件,大约1006行的位置如下操作
修改成
相当于对产生的结果进行安全判断一次,但是这种情况出现的原因仍然没办法在微调后解决,即便已经输出的文本前添加了'\n'。
Originally posted by @LittleGreenYuan in https://github.com/THUDM/ChatGLM3/issues/227#issuecomment-1804897902