Open abigkeep opened 1 year ago
auto-gpt调用的是openai api,背后是chatgpt。需要首先维持一个全局的glm模型实例,然后得把api接口替换成本地调用chatglm的。
但是有一些问题,如果auto gpt未来支持多agent并行prompt的话,chatglm也需要一个模型池,用来被分配到不同的上下文和记忆池
auto-gpt调用的是openai api,背后是chatgpt。需要首先维持一个全局的glm模型实例,然后得把api接口替换成本地调用chatglm的。
但是有一些问题,如果auto gpt未来支持多agent并行prompt的话,chatglm也需要一个模型池,用来被分配到不同的上下文和记忆池
直接把相关的API配置信息换成ChatGLM的API是否可行?
auto-gpt调用的是openai api,背后是chatgpt。需要首先维持一个全局的glm模型实例,然后得把api接口替换成本地调用chatglm的。 但是有一些问题,如果auto gpt未来支持多agent并行prompt的话,chatglm也需要一个模型池,用来被分配到不同的上下文和记忆池
直接把相关的API配置信息换成ChatGLM的API是否可行?
Is this approach feasible?
Is your feature request related to a problem? Please describe.
No response
Solutions
如何将chatglm模型用于auto-gpt
Additional context
No response