binary-husky / gpt_academic

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
https://github.com/binary-husky/gpt_academic/wiki/online
GNU General Public License v3.0
65.13k stars 8.03k forks source link

[Bug]: bridge_jittorllms_llama.py 104行应为以下代码: #1190

Open markma0617 opened 1 year ago

markma0617 commented 1 year ago

Installation Method | 安装方法与平台

Pip Install (I used latest requirements.txt)

Version | 版本

Latest | 最新版

OS | 操作系统

Linux

Describe the bug | 简述

for response,history in self.jittorllms_model.run_web_demo(query,history): print(response) self.child.send(response) 而不是:for response in self.jittorllms_model.stream_chat(query,history)。 希望可以修改下,另外希望增加对code_llama的支持。

Screen Shot | 有帮助的截图

image

Terminal Traceback & Material to Help Reproduce Bugs | 终端traceback(如有) + 帮助我们复现的测试材料样本(如有)

No response

markma0617 commented 1 year ago

同样的错误也存在于其他的jittor_llms上。

binary-husky commented 1 year ago

jittorllms最近有版本更新吗?我不记得之前有这个method?

markma0617 commented 1 year ago

好像是更新了,加了一个run_web_demo的method image