Closed ticoAg closed 1 year ago
不需要
LLM_MODEL = "qwen-api"
# online api libs
# qwen-api
dashscope>=1.10.0
# fangzhou
# volcengine>=1.0.106
"zhipu-api": { # 请为每个要运行的在线API设置不同的端口
"port": 21001,
},
"minimax-api": {
"port": 21002,
},
"xinghuo-api": {
"port": 21003,
},
"qianfan-api": {
"port": 21004,
},
"fangzhou-api": {
"port": 21005,
},
"qwen-api": {
"port": 21006,
},
"baichuan-api": {
"port": 21007,
},
LLM_MODEL指定LANGCHAIN_LLM_MODEL中的模型 启动web就会报错 理论上都是API 应该都可以吧
这个确实不稳定,dev修复了这个问题,可以先更新到dev
尝试了下,支持了,方法如下:
ONLINE_LLM_MODEL
中新增以下key-value,注意此处key的作用等同于model_name,会用key去调用api_base_url,这里可能存在一些不合适的设计,个人认为key只是一个server的名字,随便叫什么,用里面的model_name才对
"Qwen-1_8B-Chat": {
"model_name": "Qwen-1_8B-Chat", # model_name无效
"api_base_url": "url", # 确保langchain部署的位置能够访问到这个url
"api_key": "api-key"
},
错误示例及报错
"qwen1_8b-api": {
"model_name": "Qwen-1_8B-Chat",
"api_base_url": "url",
"api_key": "api-key"
},
openai.BadRequestError: Error code: 400 - {'object': 'error', 'message': 'Only Qwen-1_8B-Chat allowed now, your model qwen1_8b-api', 'code': 40301}
2023-12-26 23:11:12,994 - utils.py[line:27] - ERROR: BadRequestError: Caught exception: Error code: 400 - {'object': 'error', 'message': 'Only Qwen-1_8B-Chat allowed now, your model qwen1_8b-api', 'code': 40301}
LLM_MODELS
中增加上面的key
LLM_MODELS.append("Qwen-1_8B-Chat") # 或者定义的列表中直接增加
FSCHAT_MODEL_WORKERS
增加下块,新增的key和LLM_MODELS
中新增的key以及ONLINE_LLM_MODEL
中新增的key保持一致, 新起一个端口
"Qwen-1_8B-Chat":{
"port": 21010
}
问题描述 / Problem Description model_config.py中LLM_MODEL指定为LANGCHAIN_LLM_MODEL中定义的MODEL API,不本地启动模型,进入web页面报错变量index越界 是设计上要求本地必须启动一个MODEL_PATH.llm_model里的模型吗
环境信息 / Environment Information