-
下载数据后尝试运行bash generate_fewshot.sh,出现以下问题:
Traceback (most recent call last):
File "./src/generate_fewshot.py", line 6, in
from constants import id2worker_class
File "/vepfs/chenchucheng/c…
-
File "/home/gfr/miniconda3/envs/Huatuo/lib/python3.9/site-packages/transformers/tokenization_utils_base.py", line 1155, in unk_token_id
return self.convert_tokens_to_ids(self.unk_token)
File "…
-
报错log如下:
(textgen) D:\AI_project\HuatuoGPT> python -m huatuo_cli_demo_stream --model-name D:\AI_project\text-generation-webui\models\HuatuoGPT-7B
Traceback (most recent call last):
File "C:\Users…
-
### 提交前必须检查以下项目 | The following items must be checked before submission
- [X] 请确保使用的是仓库最新代码(git pull),一些问题已被解决和修复。 | Make sure you are using the latest code from the repository (git pull), some issue…
lehug updated
10 months ago
-
请问一下在加载13B模型需要多大的显存呢?我是用24G显存在AutoModelForCausalLM.from_pretrained加载模型时直接killed了,但是查看显存当时显存还未占用,请问这是什么原因?谢谢
-
## Steps to Reproduce
```bash
> # use apt to install the following
> # cuda/unknown,now 12.1.0-1 amd64
> # libcudnn8-dev/unknown,now 8.9.0.131-1+cuda12.1 amd64
> # tensorrt-dev/unknown 8.6.0.12-…
-
尊敬的Huatuo-Llama-Med-Chinese应用开发者,我是 InternLM 社区开发者&志愿者尖米, 大佬开源的工作对我的启发很大,希望可以探讨使用 InternLM 实现Huatuo-Llama-Med-Chinese的可能性和实现路径,我的微信是mzm312,希望可以取得联系进行更深度的交流
-
root@instance:/home/wy/HuatuoGPT-main# python apply_delta.py --base-model-path /data/nvme0/model/llama-13b-hf --target-model-path /data/nvme0/wy/huatuo-13b_converted --delta-path /data/nvme0/wy/Huatuo…
-
运行infer.sh的时候遇到上面错误,怎么解啊?
-
python3.8 infer.py \
--base_model './llama-7b-hf' \
--lora_weights './lora-llama-med' \
--use_lora True \
--instruct_dir './data/infer.json' \
--prompt_template 'med_template'…