yanqiangmiffy / InstructGLM

ChatGLM-6B 指令学习|指令数据|Instruct
MIT License
654 stars 51 forks source link

关于多轮对话的疑问 #9

Open ZeyuTeng96 opened 1 year ago

ZeyuTeng96 commented 1 year ago

看到您是使用alpaca和belle数据对chatglm实现指令微调,但是web demo脚本是使用类似于的chatglm的。这其中是会记录模型与用户的历史对话信息。但是测试中,您并没有测试多轮对话,模型对于上下文语义理解的测试,或者用户追问一些上文的问题,模型继续回答的测试。想问如果用这种alpaca或者belle的指令数据集微调的话,模型还会考虑上下文语义,并能基于用户的追问,回答相应问题嘛?