Closed zhuhaifengaaa closed 10 months ago
🤖
你好 @zhuhaifengaaa,很高兴认识你!我是Dosu,一个可以帮助你解决问题,回答问题,以及成为贡献者的机器人。在等待人类维护者的同时,我将在这里为你提供帮助。
根据我找到的相关问题加载本地模型时报 需要trust_model_code=True,Langchain-Chatchat应该是支持Phind-CodeLlama-34B-v2模型的。但是,如果在部署过程中遇到了报错,可能是因为需要在依赖的fschat库中加入trust_model_code=True
这个参数。
这个参数不是在Langchain-Chatchat中加入的,而是在fschat库的源码中修改。你可以根据报错信息定位到库的位置并修改依赖的源代码。
如果你需要更详细的步骤或者在修改过程中遇到了问题,欢迎继续提问。
This response is meant to be useful and save you time. It is not meant to be a precise solution, but rather a starting point for your own research.
Help me be more useful! Please leave a 👍 if this is helpful and 👎 if it is irrelevant.
If you want to continue the conversation, start your reply with @dosu-bot.
fschat支持的列表里没有这模型
不是说支持fastchat所有模型吗? Phind-CodeLlama-34B-v2这个可以吗?我部署了一下报错