-
比如 baichuan-7b-v1 目前是限时免费的
{
"models": [
"qwen-long",
"qwen-turbo",
"qwen-plus",
"qwen-max",
…
-
# 模型参数支持专区
大家好,PaddleNLP 团队在这里为大家整理了各个模型参数的详细信息,方便大家使用。
## 模型参数
### Base Models
| Model | 0.5B | 1~2B | 3~4B | 6~8B | 13~14B | 30~32B | 50~60B | 65~72B | 110B | >110B |
|:---------:|:--…
-
python baichuan-7b/generate.py --repo-id-or-model-path ./baichuan-7b/ --n-predict 2048 --prompt "糕点商店里原本有三种蛋糕:草莓奶油蛋糕,巧克力椰蓉蛋糕,和红丝绒布朗尼蛋糕。如名字所描述的那样,每种蛋糕都有两种成分:草莓奶油蛋糕包含草莓和奶油两个成分,巧克力椰蓉蛋糕包含巧克力和椰蓉两种成分,红丝绒布朗尼…
-
CUDA_VISIBLE_DEVICES=0 python /home/ubuntu/TextToSQL/DB-GPT-Hub/src/dbgpt-hub-sql/dbgpt_hub_sql/train/sft_train.py\
--model_name_or_path /home/ubuntu/.cache/modelscope/hub/qwen/Qwen2___5-Coder-7B…
-
help,根据issues里下了bitsandbytes==0.41.1,但是还是报错Baichuan7BChatTextGeneration: 'NoneType' object is not subscriptable
-
感觉是baicihuan2的tokenizer做了更新,可能需要适配一下
报了个这样的错误:
Tokenizer class BaichuanTokenizer does not exist or is not currently imported.
版本的话是用的最新的代码,v0.05。
感觉改一下tokenizer应该就可以。
-
### Required prerequisites
- [X] I have read the documentation .
- [X] I have searched the [Issue Tracker](https://github.com/baichuan-inc/baichuan-7B/issues) and [Discussions](https://github.com/bai…
-
部署baichuan-inc/Baichuan2-7B-Chat-4bits时报错
File "/data/miniconda3/envs/env-novelai/lib/python3.10/site-packages/bitsandbytes/nn/modules.py", line 243, in _save_to_state_dict
for k, v in self.w…
-
支持Alpaca等指令数据集的SFT和RLHF流程:https://github.com/hiyouga/LLaMA-Efficient-Tuning
LoRA微调可在单块3090 GPU上运行,同时支持QLoRA方法。(最低12G显存)
微调模型的 LoRA 权重:https://huggingface.co/hiyouga/baichuan-7b-sft
运行以下指令即可实现…
-
I run it in colab,
config.yml:
```yaml
models:
- type: main
engine: huggingface_hub
model: baichuan-inc/Baichuan2-7B-Chat
rails:
input:
flows:
- self check input
…