Open weiaicunzai opened 11 hours ago
请教一下,关于train_llava的代码。为什么[final_inputs_ids] (https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/train_llava/train_llava/data.py#L128) 使用pad_token_id进行填充,而final_label_ids 使用 ignore_idx进行填充? 为啥不是都用pad_token_id填充呢?
还有为啥ignore_idx 等于-100,模型是怎么知道-100是ignore_idx的呢?每个llm都知道-100是要忽略的值吗?比如llama,qwen之类的。
感谢!
请教一下,关于train_llava的代码。为什么[final_inputs_ids] (https://github.com/yuanzhoulvpi2017/zero_nlp/blob/main/train_llava/train_llava/data.py#L128) 使用pad_token_id进行填充,而final_label_ids 使用 ignore_idx进行填充? 为啥不是都用pad_token_id填充呢?
还有为啥ignore_idx 等于-100,模型是怎么知道-100是ignore_idx的呢?每个llm都知道-100是要忽略的值吗?比如llama,qwen之类的。
感谢!