Open hypergraphUniverse opened 1 year ago
这个issue负责相关测试和技术的探讨,如果有兴趣和有思路/建议欢迎提出。
请求动机
方法描述 采用微调模型来训练人格,加入其中的选项
可能的问题 微调模型的使用价格是正常模型的六倍,因此必须要非常长的设定才赚。同时,微调模型如果输入文字训练失败,可能会导致输出内容错误,这会导致一定资源的浪费。
可能方案1 直接使用微调模型,将历史记录输入微调模型作为模型的训练。这种操作对于记忆究竟能有多稳固是不太清楚的。
可能方案2 将历史记录的文本记录下来,在发生新对话的时候,使用某种常规的或者是使用AI的方法,将历史记录的文本中相关的文字检索出来,并且贴在前面。这种操作对于记忆的稳固性有保障,但是如何实现新对话检索旧对话,是这个方案的技术难点。
这个issue负责相关测试和技术的探讨,如果有兴趣和有思路/建议欢迎提出。
计划1:基于微调模型的模型设置
请求动机
方法描述 采用微调模型来训练人格,加入其中的选项
可能的问题 微调模型的使用价格是正常模型的六倍,因此必须要非常长的设定才赚。同时,微调模型如果输入文字训练失败,可能会导致输出内容错误,这会导致一定资源的浪费。
计划2: 基于某种方案的长期记忆存储
请求动机
可能方案1 直接使用微调模型,将历史记录输入微调模型作为模型的训练。这种操作对于记忆究竟能有多稳固是不太清楚的。
可能方案2 将历史记录的文本记录下来,在发生新对话的时候,使用某种常规的或者是使用AI的方法,将历史记录的文本中相关的文字检索出来,并且贴在前面。这种操作对于记忆的稳固性有保障,但是如何实现新对话检索旧对话,是这个方案的技术难点。