li-plus / chatglm.cpp

C++ implementation of ChatGLM-6B & ChatGLM2-6B & ChatGLM3 & GLM4
MIT License
2.84k stars 327 forks source link

什么时候支持amd的gpu #274

Open youcanyouupsb opened 4 months ago

youcanyouupsb commented 4 months ago

如何支持amd硬件

ZUIcat commented 4 months ago

同问,或者说能将chatglm.cpp合并到llama.cpp就好了,挺希望能在AMD上跑的。

li-plus commented 4 months ago

我手上没有 amd gpu 所以没办法测试,有空会逐渐迁移到 llama.cpp 去的

youcanyouupsb commented 4 months ago

llama.cpp 支持 AMD上跑的,llama.cpp我跑AMD ok , 期待chatglm.cpp!!!!

kxn commented 1 month ago

我手上没有 amd gpu 所以没办法测试,有空会逐渐迁移到 llama.cpp 去的

要不先把 ggml 升级到最新版本? 我看最新版本里面支持 hip 了,现在的版本里面好像代码里面有define,但是 cmake file 都没更新。