Open ljch2018 opened 1 month ago
哎,我也想问这个部署的事,为啥搞得有点复杂,不是一个gradio网页就行了吗
哎,我也想问这个部署的事,为啥搞得有点复杂,不是一个gradio网页就行了吗
确实是这样,这里偷懒直接用了LLaVA的demo所以比较复杂😂
python -m internvl.serve.model_worker --host 0.0.0.0 --controller http://localhost:10000 --port 40001 --worker http://localhost:40001 --model-path ./llm_models/Mini-InternVL-Chat-4B-V1-5
一旦请求,就会出错。
想问一下这里用的git branch是哪个,可以试试pull到最新的代码
跟其他开源模型比较,这个部署没讲清楚,更不谈一个web_demo就能搞定
我成功了:
internvl_chat_llava
folderpython -m llava.serve.controller --host 0.0.0.0 --port 10000
internvl_chat_llava
folderpython -m llava.serve.gradio_web_server --controller http://localhost:10000 --model-list-mode reload
internvl_chat
folderpython -m internvl.serve.model_worker --host 0.0.0.0 --controller http://localhost:10000 --port 40005 --worker http://localhost:40005 --model-path {原生模型地址或者ft后的}
@mi4da 有发现推理很慢么?给够了显存依然很慢,需要几十秒甚至失败。
python -m internvl.serve.model_worker --host 0.0.0.0 --controller http://localhost:10000 --port 40001 --worker http://localhost:40001 --model-path ./llm_models/Mini-InternVL-Chat-4B-V1-5