InternLM / lmdeploy

LMDeploy is a toolkit for compressing, deploying, and serving LLMs.
https://lmdeploy.readthedocs.io/en/latest/
Apache License 2.0
4.09k stars 373 forks source link

[Feature] api server部署方式下的logprob功能 #2070

Open cjfcsjt opened 1 month ago

cjfcsjt commented 1 month ago

Motivation

你好。我看到文档中支持offline inference模式下,得到input logprob。请问api server部署方式下支持吗?如果不支持,请问近期会有plan吗?

Related resources

2041

Additional context

No response

irexyc commented 1 month ago

input_token 不支持 server 的形式。

output_token 可以通过 openai 接口中的 logprobstop_logprobs 字段来使用。