LLM-Red-Team / kimi-free-api

🚀 KIMI AI 长文本大模型逆向API白嫖测试【特长:长文本解读整理】,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹。
https://udify.app/chat/Po0F6BMJ15q5vu2P
GNU General Public License v3.0
3.64k stars 585 forks source link

docker同时部署qwen & kimi #115

Closed scjzhong closed 3 months ago

scjzhong commented 3 months ago

部署qwen 时使用的是8000:8000 部署kimi时使用的是8001:8001,qwen的8000端口http://localhost:8000/v1/chat/completions能正常访问,kimi的8001端口http://localhost:8001/v1/chat/completions无法访问。 部署命令即仓库提供的:docker run -it -d --init --name kimi-free-api -p 8001:8001 -e TZ=Asia/Shanghai vinlic/kimi-free-api:latest。 这个该如何解决?

Vinlic commented 3 months ago

docker端口映射参数错误 应该是8001:8000,不是8001:8001

scjzhong commented 3 months ago

感谢 感谢