-
![1](https://github.com/wangzhaode/ChatGLM-MNN/assets/99779317/e9bf09e7-5744-4fd0-a7cd-6e6574b3f1b9)
我尝试修改chat.cpp,还是没有用
![2](https://github.com/wangzhaode/ChatGLM-MNN/assets/99779317/74e024a0-b9a…
-
# 平台(如果交叉编译请再附上交叉编译目标平台):
# Platform(Include target platform as well if cross-compiling):
Win + CUDA
# Github版本:
# Github Version:
2.8.0
直接下载ZIP包请提供下载日期以及压缩包注释里的git版本(可通过``7z l zip包路径``命令并…
-
- cli_demo使用https://github.com/wangzhaode/mnn-llm master 分支的0af06c编译
- chatglm2-6b的mnn文件全部在这里https://github.com/wangzhaode/mnn-llm/releases/tag/chatglm2-6b-mnn 下载
- 此外,同样的cli_demo二进制,跑qwen-1.8b-mnn(…
Moxoo updated
10 months ago
-
端侧部署调试极不方便,通常的做法是在windows上开发调试,稳定后在端侧部署,ncnn,mnn等其他同类产品都具备windows推理能力,希望paddle lite能提供windows运行时库,性能可以差一点,但能正常进行逻辑推理
-
# 平台(如果交叉编译请再附上交叉编译目标平台):
# Platform(Include target platform as well if cross-compiling):
macos m1
version 12.3.1
# Github版本:
# Github Version:
``commit id = 344629419f710b39559e616f1af7…
-
想要在MNN框架上添加光算芯片的后端,但是官方文档说明的比较简单
能否提供MNN自定义后端的最小示例,或者在官方文档上补充一些细节
-
https://github.com/wangzhaode/llm-export/releases/tag/qwen-vl-onnx/lm.onnx 只有500多Bytes吗? 是否是正常的
-
大佬,请问[qwen-1_8B-预训练](https://modelscope.cn/models/qwen/Qwen-1_8B/files)和qwen-1_8B-chat在模型结构、导出、推理这些方面都没有区别的是吗?
因为linux上mnn2.8.0导出qwen有问题,我刚试着导出量化4的qwen-1_8B-预训练好像也存在同样问题,大佬能否提供下qwen-1_8B-预训练量化4和8的导…
Moxoo updated
9 months ago
-
# 平台(如果交叉编译请再附上交叉编译目标平台):
# Platform(Include target platform as well if cross-compiling):
android armeabi-v7a with NDK r25c
# Github版本:
# Github Version:
master 2.7.2
直接下载ZIP包请提供下载日期以及压缩…
-
I am following the vignette
https://satijalab.org/seurat/articles/seurat5_integration
obj
Flu09 updated
9 months ago