Closed BarryAlllen closed 6 days ago
您好 这个 prompts = ['你好'] 后需要加上模板
prompt = "你好"
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
outputs = llm.generate([text], sampling_params)
这个问题我们会在后续迭代中修复readme内容
您好 这个 prompts = ['你好'] 后需要加上模板
prompt = "你好" messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True) outputs = llm.generate([text], sampling_params)
这个问题我们会在后续迭代中修复readme内容
tokenizer的包和sampling_params应该怎么导入呢?
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("TeleAI/TeleChat2-7B/",trust_remote_code=True)
输出:
想问一下,7B的max_model_len和max_tokens应该设置为多少