Open 52THANOS opened 7 months ago
无论什么模型,给上训练都会戛然而止,似乎都没有进入到导入数据的部分
尝试一下这几行代码能否正常运行?
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
model_path = "internlm/internlm2-chat-7b"
model = AutoModelForCausalLM.from_pretrained(
model_path,
trust_remote_code=True,
torch_dtype=torch.float16,
device_map='auto',
quantization_config=dict(
type=BitsAndBytesConfig,
load_in_4bit=True,
load_in_8bit=False,
llm_int8_threshold=6.0,
llm_int8_has_fp16_weight=False,
bnb_4bit_compute_dtype=torch.float16,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type='nf4'))
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = model.eval()
response, history = model.chat(tokenizer, "hello", history=[])
print(response)
尝试一下这几行代码能否正常运行?
import torch from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig model_path = "internlm/internlm2-chat-7b" model = AutoModelForCausalLM.from_pretrained( model_path, trust_remote_code=True, torch_dtype=torch.float16, device_map='auto', quantization_config=dict( type=BitsAndBytesConfig, load_in_4bit=True, load_in_8bit=False, llm_int8_threshold=6.0, llm_int8_has_fp16_weight=False, bnb_4bit_compute_dtype=torch.float16, bnb_4bit_use_double_quant=True, bnb_4bit_quant_type='nf4')) tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) model = model.eval() response, history = model.chat(tokenizer, "hello", history=[]) print(response)
可以的
@52THANOS
xtuner 代码有修改过吗? 没有报错确实没有办法检查。可以尝试一下训练 alpaca 数据什么的,不要做任何修改,看能不能正常训练
@52THANOS xtuner 代码有修改过吗? 没有报错确实没有办法检查。可以尝试一下训练 alpaca 数据什么的,不要做任何修改,看能不能正常训练
好的我去试试
可是我用gemma的config也这样,直接就结束了,alpaca是会自动下载的吗
@52THANOS alpaca 会自动下载。排除一下数据集的影响,再就是检查一下 train.py 是否有改动?
@52THANOS alpaca 会自动下载。排除一下数据集的影响,再就是检查一下 train.py 是否有改 这是为什么我明明已经安装了
你python所对应的环境有安装mmengine吗? 参考 https://github.com/InternLM/xtuner/issues/388 https://github.com/InternLM/xtuner/issues/324
你python所对应的环境有安装mmengine吗? 参考 #388 #324
我是单卡貌似不是这个问题,我用xtuner train xtuner/configs/internlm/internlm2_7b/internlm2_7b_qlora_alpaca_e3.py 和 python xtuner/tools/train.py xtuner/configs/internlm/internlm2_7b/internlm2_7b_qlora_alpaca_e3.py 有什么不一样呢
你python所对应的环境有安装mmengine吗? 参考 #388 #324
这两个启动方式的错误感觉都和mmengine有关系
@52THANOS 可以重新创建虚拟环境,重新安装
@52THANOS 可以重新创建虚拟环境,重新安装
依旧不行,失败了
@52THANOS
python -c "import sys;print(sys.executable)"
查看一下打印出来的 python 路径是哪一个?
@52THANOS
python -c "import sys;print(sys.executable)"
查看一下打印出来的 python 路径是哪一个?
就是我当前环境下的exe
那 ModuleNotFoundError 应该就是安装的问题,没有安装上mmengine
那 ModuleNotFoundError 应该就是安装的问题,没有安装上mmengine
可是我无论是用openmim安装还是直接安装mmengine,他好像都显示有问题
创建新环境,直接安装 pip install mmengine
。如果还是找不到mmengine 那估计就是 conda 或系统问题了
创建新环境,直接安装
pip install mmengine
。如果还是找不到mmengine 那估计就是 conda 或系统问题了
我都能直接ctrol进去,但是他就是显示没有。我想问一下,xtuner train 和python tools/train.py 启动有啥区别啊
@52THANOS xtuner 命令的入口函数在这里
xtuner train
使用该入口,调用 python tools/train
@52THANOS xtuner 命令的入口函数在这里
xtuner train
使用该入口,调用python tools/train
那看来还是mmengine的问题,我自己之前在用openmmlab的时候都没啥问题
@52THANOS xtuner 命令的入口函数在这里 https://github.com/InternLM/xtuner/blob/bd6fe4c1dea7158dae333e39436b3cf1d7798646/xtuner/entry_point.py#L244
xtuner train
使用该入口,调用python tools/train
那看来还是mmengine的问题,我自己之前在用openmmlab的时候都没啥问题
是的,可以逐行 debug 一下 tools/train.py
here is my config and warning.
the program stopped at here. Only giving some warnings