-
我观察到minicpm的llm有多个版本,例如fp32,bf16,dpo和sft。
请问多模态模型是使用哪一个llm呢?
-
Hi, I tried to infer MiniCPM-V different images in loops. But got the same result.
```
images = ["a.jpg", "b.jpg", "c.jpg"]
for img in images:
image = Image.open(image_path).convert('RGB')
…
-
### Feature request / 功能建议
适配高通骁龙soc
-
### Feature request / 功能建议
openbmb/MiniCPM-2B-dpo-fp16 最大上下文长度是多少呢?也没看到官方说明,配置文件里好像也没找到,谁回答下好吗?
-
### Feature request / 功能建议
Your nice work helps me a lot!
I meet some bugs when finetuning the ```openbmb/MiniCPM-2B-sft-bf16```, I guess it should be caused by version inconsistency of some packa…
-
### Feature request / 功能建议
训练策略相关代码有计划开源吗?
-
@dosu-bot
我想使用新的rerank模型,加载时报错如下
```
/data/home/user/Test/Langchain-Chatchat-Env/lib/python3.9/site-packages/huggingface_hub/file_download.py:1132: FutureWarning: `resume_download` is deprecated an…
-
### Feature request / 功能建议
![企业微信截图_20240205180051](https://github.com/OpenBMB/MiniCPM/assets/24838515/88cceea5-56f2-435c-abdd-a0d041f1bcad)
模型训练时使用的batch size是4M,这个4M是400万吗?一个batch,用400万example?
-
我观察到minicpm的llm有多个版本,例如fp32,bf16,dpo和sft。
请问多模态模型是使用哪一个llm呢?
-
### Feature request / 功能建议
仓库地址:https://github.com/mlc-ai/mlc-llm
类似 ONNXRuntime,但是对国产化模型的支持更好,可以通过 [web-llm](https://github.com/mlc-ai/web-llm) 在支持 WebGPU 的浏览器上直接跑大模型。