Closed oaksharks closed 1 year ago
诶?可以通过 openai 这个包访问的么?我还从来没有试过 @AllentDan 麻烦同步下如下信息:
@lvhan028 感谢您及时回复。
OpenAI API 使用: https://github.com/InternLM/lmdeploy/blob/7b20cfdf0ac3819dcf6978dc8ddb49b5d2cda5a9/docs/en/restful_api.md?plain=1#L9-L10
能复现,似乎是我们停止会话,会触发这个问题。
能复现,似乎是我们停止会话,会触发这个问题。
@AllentDan 还请跟进下
是 turbomind 多卡程序 stop 就会一定概率挂掉,app.py 直接运行 turbomind tp,按 cancel 按钮也会一定概率触发。
@grimoire 这个可以帮忙看下原因吗?好像多卡停止会偶尔挂掉
我测试的结果在 --instance_num 1 的时候多线程访问不会core dump lmdeploy serve api_server ./workspace --server_name 0.0.0.0 --server_port 8000 --instance_num 1 --tp 2
在 --instance_num 10 的时候多线程访问(只要大于1),每次都会core dump lmdeploy serve api_server ./workspace --server_name 0.0.0.0 --server_port 8000 --instance_num 1 0--tp 2
PR 686 修复了
Checklist
Describe the bug
开发人员,您好!
使用Openai 方式调用时,开启stream,开启tensor并行tp=2, 如果在客户端中断后再访问服务会报错
Segmentation fault (core dumped)
如果设置tp=1则没有这个问题。
预期: 客户端中断不应该导致服务端异常退出。
期待您回复!
Reproduction
复现该问题的代码:
代码输出:
启动命令:
Environment
Error traceback
No response