THUDM / ChatGLM3

ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型
Apache License 2.0
13.19k stars 1.52k forks source link

langchain_demo中的那个是不是不是流式处理? #1254

Closed ciaoyizhen closed 1 month ago

ciaoyizhen commented 1 month ago

Feature request / 功能建议

那个openai_langchian那个是流失处理我知道。 但是我想着启动服务的时候,又要用fastchat启一个服务,就会有点麻烦 我看langchain能直接从文件读的,然后官方说要实现流式要实现_stream方法呀,这个我看代码里没有实现。 这个是能流式吗,具体要怎么实现呢?

Motivation / 动机

谢谢

Your contribution / 您的贡献

能提供一下案例吗,或者解答一下吗, 谢谢大哥们