-
### Feature request / 功能建议
训练策略相关代码有计划开源吗?
-
### Feature request / 功能建议
Your nice work helps me a lot!
I meet some bugs when finetuning the ```openbmb/MiniCPM-2B-sft-bf16```, I guess it should be caused by version inconsistency of some packa…
-
### Feature request / 功能建议
仓库地址:https://github.com/mlc-ai/mlc-llm
类似 ONNXRuntime,但是对国产化模型的支持更好,可以通过 [web-llm](https://github.com/mlc-ai/web-llm) 在支持 WebGPU 的浏览器上直接跑大模型。
-
### Question Validation
- [X] I have searched both the documentation and discord for an answer.
### Question
how to use llama3 in agent , it seems does not have function_calling
-
### Your current environment
```text
PyTorch version: 2.4.0+cu121
Is debug build: False
CUDA used to build PyTorch: 12.1
ROCM used to build PyTorch: N/A
OS: Ubuntu 20.04.6 LTS (x86_64)
GCC ve…
-
我观察到minicpm的llm有多个版本,例如fp32,bf16,dpo和sft。
请问多模态模型是使用哪一个llm呢?
-
### Feature request / 功能建议
![企业微信截图_20240205180051](https://github.com/OpenBMB/MiniCPM/assets/24838515/88cceea5-56f2-435c-abdd-a0d041f1bcad)
模型训练时使用的batch size是4M,这个4M是400万吗?一个batch,用400万example?
-
### Feature request / 功能建议
请问未来会提供退火阶段开始前的继续预训练的范例代码吗?
其实我最近在尝试复现你们文章提及的WSD退火,我实现方式是 HF 的 accelerate + pytorch,按照你们文章自己实现了WSD调度器,从头训练一个0.27b模型,模型参数初始化时直接用你们提供的两个脚本 configuration_minicpm.py 和 modeli…
-
### Feature request / 功能建议
T.D.
xtxwy updated
5 months ago
-
请问可以多卡部署吗?如果可以的话,具体怎么操作可以教教吗?一张3090显存不太够,对话稍微长一些就会爆显存,BMInf速度又太慢。