Open zhzspace opened 1 year ago
有人知道下面这段代码中fastllm_lib.make_history_llm_model()方法做了什么吗?
def get_prompt(self, query: str, history: List[Tuple[str, str]] = None) -> str: if (not(history)): history = []; prompt = ""; for i, (old_query, response) in enumerate(history): prompt = fastllm_lib.make_history_llm_model(self.model, prompt.encode(), i, old_query.encode(), response.encode()).decode(); prompt = fastllm_lib.make_input_llm_model(self.model, prompt.encode(), len(history), query.encode()).decode(); return prompt;
make_history_llm_model 构造历史对话(会话上文), make_input_llm_model 构造本轮的对话输入 这些都可以通过看 pytools.cpp -> basellm.cpp 找到的
好的,多谢解答,我去看看pytools.cpp -> basellm.cpp
有人知道下面这段代码中fastllm_lib.make_history_llm_model()方法做了什么吗?