wangzhaode / llm-export

llm-export can export llm model to onnx.
Apache License 2.0
187 stars 21 forks source link

Qwen-1_8B-Chat模型转mnn可能存在问题 #8

Closed Moxoo closed 8 months ago

Moxoo commented 8 months ago

@wangzhaode 大佬有空帮看下这个问题,谢谢~

所以导致:

wangzhaode commented 8 months ago

ok 可能是版本问题 我对比一下

wangzhaode commented 8 months ago

你测试用的是Linux系统吗

Moxoo commented 8 months ago

你测试用的是Linux系统吗

是的

wangzhaode commented 8 months ago

你测试用的是Linux系统吗

是的

我测试了下Linux的whl包转换出来确实比Mac转换的大,跟你的表现一致;

Moxoo commented 8 months ago

你测试用的是Linux系统吗

是的

我测试了下Linux的whl包转换出来确实比Mac转换的大,跟你的表现一致;

也是会打印逗号出来是吗

wangzhaode commented 8 months ago

应该是的 我没有测试;你可以先用我上传的模型,我来看下linux和mac的差异

Moxoo commented 8 months ago

好的,thanks

Moxoo commented 8 months ago

应该是的 我没有测试;你可以先用我上传的模型,我来看下linux和mac的差异

我试了下用 quant_bit = 8 来转Qwen-1_8B-Chat,转出来的mnn文件也跟你 https://github.com/wangzhaode/mnn-llm/releases/tag/qwen-1.8b-mnn-int8 上传的对不上,应该是同一个问题 a6mrDTO0h3 现象也是一样的 K9ICYEV4lD

wangzhaode commented 8 months ago

问题已定位,是一个未初始化变量导致的模型转换期间优化Pass出错

Moxoo commented 8 months ago

问题已定位,是一个未初始化变量导致的模型转换期间优化Pass出错

这个是不是要改MNN python库

wangzhaode commented 8 months ago

对 代码已经修改了 2.8.1版本的 MNN whl包会修复

DavidQiuChao commented 8 months ago

@wangzhaode 大佬有空帮看下这个问题,谢谢~

所以导致:

请问你转模型的时候有以下信息吗? image

Moxoo commented 8 months ago

@wangzhaode 大佬有空帮看下这个问题,谢谢~

所以导致:

请问你转模型的时候有以下信息吗? image

有的

DavidQiuChao commented 8 months ago

那这里可能也会导致转成的模型有点问题 @wangzhaode @Moxoo

wangzhaode commented 8 months ago

那这里可能也会导致转成的模型有点问题 @wangzhaode @Moxoo

如果只是warning是没问题的

Halloword commented 8 months ago

对 代码已经修改了 2.8.1版本的 MNN whl包会修复

@wangzhaode 请问这个版本大概什么时候可以发布?

lansexinhu commented 8 months ago

@wangzhaode 请问这个版本什么时候发布啊

wangzhaode commented 8 months ago

@wangzhaode 请问这个版本什么时候发布啊

预计下周吧

wangzhaode commented 8 months ago

MNN 2.8.1已发布,python包:https://pypi.org/project/MNN/2.8.1/#files