本项目实现算能BM1688和CV168AH部署各类开源生成式AI模型
,主要是70亿参数量以内的大语言模型。
我们已经部署过的开源模型如下:
Model | INT4 | Huggingface Link |
---|---|---|
ChatGLM3-6B | :white_check_mark: | LINK |
Qwen1.5-1.8B | :white_check_mark: | LINK |
Qwen2.5-1.5B | :white_check_mark: | LINK |
Llama2-7B | :white_check_mark: | LINK |
MiniCPM-2B | :white_check_mark: | LINK |
Phi-3-3.8B | :white_check_mark: | LINK |
Gemma2-2B | :white_check_mark: | LINK |
OpenClip | :white_check_mark: | LINK |
InternVL2-4B | :white_check_mark: | LINK |
InternVL2-2B | :white_check_mark: | LINK |
MiniCPM-V-2_6 | :white_check_mark: | LINK |
如果您想要知道转换细节和源码,可以到本项目models子目录查看各类模型部署细节。
如果您想看看演示效果,可以根据Quick Start
内容操作即可。
如果您对我们的芯片感兴趣,也可以通过官网SOPHGO联系我们。
如果您手上有BM1688或CV168AH的开发板,那么可以参考以下步骤跑通大语言模型,这里以Qwen1.5-1.8B为例。
git clone https://github.com/sophgo/LLM-TPU_Lite.git
./run.sh --model qwen1.5
跑通后效果如下图所示
目前用于演示的模型,全部命令如下表所示
Model | Commnad |
---|---|
ChatGLM3-6B | ./run.sh --model chatglm3 |
Llama2-7B | ./run.sh --model llama2 |
Qwen1.5-1.8B | ./run.sh --model qwen1.5 |
Qwen2.5-1.5B | ./run.sh --model qwen2.5 |
MiniCPM-2B | ./run.sh --model minicpm |
Phi-3-3.8B | ./run.sh --model phi-3 |
Gemma2-2B | ./run.sh --model gemma2 |
OpenClip | ./run.sh --model openclip |
InternVL2-2B | ./run.sh --model internvl2 |
MiniCPM-V-2_6 | ./run.sh --model minicpmv2_6 |
A:您可以先在联网的大机器上git clone本项目,之后运行 ./run.sh --model qwen1.5
然后把LLM-TPU_Lite的全部文件拷贝到开发板上,必须要是全部文件,包括LLM-TPU_Lite/models,LLM-TPU_Lite/sg_llm
最后再在开发板上运行 ./run.sh --model qwen1.5