Open cmpute opened 1 month ago
@cmpute 请问你的图片分辨率多少?换成小一点的图片可能就行。
我查看了Qwen在HF的文档,这里明确提到Model似乎能通过两个预设配置参数来自动resize图片的大小,请问在lmdeploy里面怎么能传入这中启动参数?我现在的启动脚本如下:
lmdeploy serve api_server --backend pytorch Qwen/Qwen2-VL-2B-Instruct
@cmpute 请问你的图片分辨率多少?换成小一点的图片可能就行。
我查看了Qwen在HF的文档,这里明确提到Model似乎能通过两个预设配置参数来自动resize图片的大小,请问在lmdeploy里面怎么能传入这中启动参数?我现在的启动脚本如下:
lmdeploy serve api_server --backend pytorch Qwen/Qwen2-VL-2B-Instruct
图片挺大的,确实有可能,有空试下
@jianliao @cmpute
https://github.com/InternLM/lmdeploy/blob/main/docs/zh_cn/multi_modal/qwen2_vl.md
https://github.com/InternLM/lmdeploy/blob/main/lmdeploy/vl/model/qwen2.py#L85-L87 这个文档里面有一些例子,支持设置 min_pixels/max_pixels, resized_height/resized_width
以上文档里面指定min_pixels/max_pixels, resized_height/resized_width
的例子是基于pipeline的,请问如果是serve模式,该如何设定?
以上文档里面指定
min_pixels/max_pixels, resized_height/resized_width
的例子是基于pipeline的,请问如果是serve模式,该如何设定?
request 中添加
{ "messages": [ { "role": "user", "content": [ { "type": "text", "text": "请描述下图片" }, { "type": "image_url", "image_url": { "max_pixels": "1000000", "url": IMAGE_URL } } ] } ], }
@Titan-p 试过了,确实可行。就是用起来很不方便,不知道是否得通过扩展客户端聊天UI应用程序来给每个带图片请求私下增加这个像素限制属性。
有没有办法直接在Server端直接配置呢?
@jianliao
pipeline 的示例中,message的格式就是openai的格式,使用server的时候传这个message就可以了。
server 端配置是指设置全局的最大最小像素么?目前没这个功能,只能通过改代码来控制。具体位置的在这里,可以在下面加一行比如
if 'max_pixels' not in item:
item.update(dict(max_pixels=64 * 28 * 28))
想请教一下目前这个仓库支持qwen2-vl输入视频吗 @irexyc @jianliao @Titan-p
Checklist
Describe the bug
Qwen2-VL 7B按理说80G的显存是能跑下的,但实际部署时推理会OOM
Reproduction
lmdeploy serve api_server ../Qwen2-VL-7B-Instruct --server-port 12345
Environment
Error traceback