linyiLYi / bilibot

A local chatbot fine-tuned by bilibili user comments.
Apache License 2.0
2.93k stars 342 forks source link

在运行调用lora时,需要登陆huggingface #19

Open new4u opened 1 month ago

new4u commented 1 month ago

报错信息

huggingface_hub.utils._errors.RepositoryNotFoundError: 401 Client Error. (Request ID: Root=1-6643df5c-5e2fc9bb4722e94427a12a97;00b25f35-2ae7-40e9-a21f-4be0b2be574f)

Repository Not Found for url: https://huggingface.co/api/models/models/Qwen1.5-32B-Chat/revision/main.
Please make sure you specified the correct `repo_id` and `repo_type`.
If you are trying to access a private or gated repo, make sure you are authenticated.
Invalid username or password.
sicaboy commented 1 month ago

常见问题Google一下就有解了

new4u commented 1 month ago

常见问题Google一下就有解了

谢谢不是回答的回答。解决了,下载模型是真的大。你跑起来了吗? 推荐配置是多少,我的m2 24g内存不知道行不行

zhenaiwork commented 1 month ago

常见问题Google一下就有解了

谢谢不是回答的回答。解决了,下载模型是真的大。你跑起来了吗? 推荐配置是多少,我的m2 24g内存不知道行不行

我这边在Linux下部署了14B和32B的qwen模型,在双路E5的机器下需要50G以上的内存。

kelvinji2009 commented 1 month ago

常见问题Google一下就有解了

谢谢不是回答的回答。解决了,下载模型是真的大。你跑起来了吗? 推荐配置是多少,我的m2 24g内存不知道行不行

我这边在Linux下部署了14B和32B的qwen模型,在双路E5的机器下需要50G以上的内存。

那看来在MBP上想跑,至少得64GB内存了。。。放弃了,我只有36GB内存

mxr612 commented 1 month ago

常见问题Google一下就有解了

谢谢不是回答的回答。解决了,下载模型是真的大。你跑起来了吗? 推荐配置是多少,我的m2 24g内存不知道行不行

我这边在Linux下部署了14B和32B的qwen模型,在双路E5的机器下需要50G以上的内存。

CPU硬跑吗?都上机架了干嘛不插卡