MegEngine / InferLLM

a lightweight LLM model inference framework
Apache License 2.0
680 stars 84 forks source link

在树莓派3b+上部署,出现无法打开模型的问题 #82

Open Dominic23331 opened 3 months ago

Dominic23331 commented 3 months ago

我在树莓派3b+上运行chatglm2,无法打开模型,请问这种情况怎么解决? main: seed = 1715851844 Assert ' m_file ' failed at file : /home/dominic/project/InferLLM-main/src/file.cpp line 10 : inferllm::InputFile::InputFile(const std::string &, bool), extra message: Failed to open model file.Aborted

Gooddz1 commented 3 months ago

请问解决了吗

Dominic23331 commented 3 months ago

没有,我查了一下,似乎是不支持这个芯片

chenqy4933 commented 3 months ago

我在树莓派3b+上运行chatglm2,无法打开模型,请问这种情况怎么解决? main: seed = 1715851844 Assert ' m_file ' failed at file : /home/dominic/project/InferLLM-main/src/file.cpp line 10 : inferllm::InputFile::InputFile(const std::string &, bool), extra message: Failed to open model file.Aborted

这个问题不是说,模型文件没有办法打开吗?应该是路径没有给对?

Gooddz1 commented 3 months ago

没有,我查了一下,似乎是不支持这个芯片

我这边是由于模型文件太大了,在拷贝的过程,模型文件有损坏,因此出现加载模型失败的问题