OpenBMB / MiniCPM-V

MiniCPM-V 2.6: A GPT-4V Level MLLM for Single Image, Multi Image and Video on Your Phone
Apache License 2.0
12.77k stars 893 forks source link

💡 [REQUEST] - 模型能上传到https://ollama.com/library吗? #157

Closed tqangxl closed 6 months ago

tqangxl commented 6 months ago

起始日期 | Start Date

No response

实现PR | Implementation PR

No response

相关Issues | Reference Issues

No response

摘要 | Summary

模型能上传到https://ollama.com/library吗?

基本示例 | Basic Example

模型能上传到https://ollama.com/library吗?

缺陷 | Drawbacks

https://ollama.com/library上没有该模型,Windows上无法使用,open webui作为交互界面 image

未解决问题 | Unresolved questions

No response

hhao commented 6 months ago

需要重新编译./ollama文件,参考:https://ollama.com/hhao/openbmb-minicpm-llama3-v-2_5

hyphantom commented 6 months ago

需要重新编译./ollama文件,参考:https://ollama.com/hhao/openbmb-minicpm-llama3-v-2_5

按教程步骤,编译报错,请求帮助:执行到go generate ./... 内部执行 cmake -S ../llama.cpp -B ../build/windows/amd64_static -G MinGW Makefiles -DCMAKE_C_COMPILER=gcc.exe -DCMAKE_CXX_COMPILER=g++.exe -DBUILD_SHARED_LIBS=off -DLLAMA_NATIVE=off -DLLAMA_AVX=off -DLLAMA_AVX2=off -DLLAMA_AVX512=off -DLLAMA_F16C=off -DLLAMA_FMA=off cmake version 3.29.3 然后cmake -S ../llama.cpp -B ../build/windows/amd64/cpu -DCMAKE_POSITION_INDEPENDENT_CODE=on -A x64 -DLLAMA_AVX=off -DLLAMA_AVX2=off -DLLAMA_AVX512=off -DLLAMA_FMA=off -DLLAMA_F16C=off -DBUILD_SHARED_LIBS=on -DLLAMA_NATIVE=off -DLLAMA_SERVER_VERBOSE=off -DCMAKE_BUILD_TYPE=Release cmake version 3.29.3 报错位置: -- Build files have been written to: xxxxx/ollama/llm/build/windows/amd64/cpu building with: cmake --build ../build/windows/amd64/cpu --config Release --target ollama_llama_server 用于 .NET Framework 的 Microsoft (R) 生成引擎版本 16.11.2+f32259642 版权所有(C) Microsoft Corporation。保留所有权利。

MSBUILD : error MSB1009: 项目文件不存在。 开关:ollama_llama_server.vcxproj llm\generate\generate_windows.go:3: running "powershell": exit status 1

实际我确认了 没有生成ollama_llama_server.vcxproj 现在卡在这一步 无法进行

tc-mb commented 6 months ago

起始日期 | Start Date

No response

实现PR | Implementation PR

No response

相关Issues | Reference Issues

No response

摘要 | Summary

模型能上传到https://ollama.com/library吗?

基本示例 | Basic Example

模型能上传到https://ollama.com/library吗?

缺陷 | Drawbacks

https://ollama.com/library上没有该模型,Windows上无法使用,open webui作为交互界面 image

未解决问题 | Unresolved questions

No response

因为ollama依赖llama.cpp,官方ollama使用时候会强制更新llama.cpp,但我们的分支还没合并到llama.cpp中,这导致只使用官方ollama,而不是用我们修改的代码重新编译的话,现阶段是不可能跑对我们的模型的。 所以我们不认为简单的传一个model到ollama的lib中是有意义的。反而会让大家误会既然传了模型就应该能用官方代码跑。

tc-mb commented 6 months ago

需要重新编译./ollama文件,参考:https://ollama.com/hhao/openbmb-minicpm-llama3-v-2_5

按教程步骤,编译报错,请求帮助:执行到go generate ./... 内部执行 cmake -S ../llama.cpp -B ../build/windows/amd64_static -G MinGW Makefiles -DCMAKE_C_COMPILER=gcc.exe -DCMAKE_CXX_COMPILER=g++.exe -DBUILD_SHARED_LIBS=off -DLLAMA_NATIVE=off -DLLAMA_AVX=off -DLLAMA_AVX2=off -DLLAMA_AVX512=off -DLLAMA_F16C=off -DLLAMA_FMA=off cmake version 3.29.3 然后cmake -S ../llama.cpp -B ../build/windows/amd64/cpu -DCMAKE_POSITION_INDEPENDENT_CODE=on -A x64 -DLLAMA_AVX=off -DLLAMA_AVX2=off -DLLAMA_AVX512=off -DLLAMA_FMA=off -DLLAMA_F16C=off -DBUILD_SHARED_LIBS=on -DLLAMA_NATIVE=off -DLLAMA_SERVER_VERBOSE=off -DCMAKE_BUILD_TYPE=Release cmake version 3.29.3 报错位置: -- Build files have been written to: xxxxx/ollama/llm/build/windows/amd64/cpu building with: cmake --build ../build/windows/amd64/cpu --config Release --target ollama_llama_server 用于 .NET Framework 的 Microsoft (R) 生成引擎版本 16.11.2+f32259642 版权所有(C) Microsoft Corporation。保留所有权利。

MSBUILD : error MSB1009: 项目文件不存在。 开关:ollama_llama_server.vcxproj llm\generate\generate_windows.go:3: running "powershell": exit status 1

实际我确认了 没有生成ollama_llama_server.vcxproj 现在卡在这一步 无法进行

收到反馈,我会尽快测试window环境下是否会有编译问题。

knsew commented 6 months ago

ollama下载的模型不支持图片识别,有为什么解决办法吗?

Cuiunbo commented 6 months ago

ollama下载的模型不支持图片识别,有为什么解决办法吗?

@tc-mb

tc-mb commented 6 months ago

ollama下载的模型不支持图片识别,有为什么解决办法吗?

在官方没有合并我们你的PR之前,请用我们fork的代码,并按照readme从头build。 https://github.com/OpenBMB/ollama/blob/minicpm-v2.5/examples/minicpm-v2.5/README.md