THUDM / ChatGLM3

ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型
Apache License 2.0
13.31k stars 1.55k forks source link

【已经移动到Discussions】【咨询】Mac 上通过运行python3 web_demo_streamlit.py 会把模型下载到哪里? #1195

Closed myEchos closed 4 months ago

myEchos commented 4 months ago

Feature request / 功能建议

我按照README.MD的步骤顺序往下执行,但是没有注意到我的Mac RAM 是不足以运行 chatglm 的。 但是此时已经完成了模型下载(7个 model-00001-of-00007.safetensors 大文件)。 运行过程中发现推理太慢(设备不符合条件),于是想要卸载,但是未能找到删除模型的方法,也未能找到模型所在的位置。

我做了一些尝试,但失败了:

  1. 尝试修改 “cli_demo.py”,使之在命令行输出 print(f"MODEL_PATH: {MODEL_PATH}") print(f"TOKENIZER_PATH: {TOKENIZER_PATH}, os.path.abspath(TOKENIZER_PATH): {os.path.abspath(TOKENIZER_PATH)}") 但是得到的路径,里面并没有大文件。

  2. 通过 Mac 自带的存储文件清理,似乎我可控的文件夹内并没有大文件(难道是被统计到了“系统数据”中?)

  3. 尝试搜索,包括“THUDM/chatglm3-6b”、‘safetensors’,同样未能找到大文件。

希望能够得到各位的指导和帮助,先谢谢啦。

Motivation / 动机

使用问题求解

Your contribution / 您的贡献

我读到的readme来自 https://github.com/THUDM/ChatGLM3