Closed YinSonglin1997 closed 6 months ago
感谢您的提问,是否方便将相关的运行日志文件发到我的邮箱:ljt20233023@163.com,以便我们进一步排查
感谢您的提问,是否方便将相关的运行日志文件发到我的邮箱:ljt20233023@163.com,以便我们进一步排查
已经发送给您
感谢您的提问,是否方便将相关的运行日志文件发到我的邮箱:ljt20233023@163.com,以便我们进一步排查
已经发送给您
感谢,已收到🫡
从报错信息上看,似乎您的输入超出了16k长度限制,您可以考虑在配置文件中修改一下与长度有关的配置项。
您好,从您的docker run xagentteam/xagentgen:latest 终端第一行:”WARNING 12-05 10:08:06 scheduler.py:147] Input prompt (17751 tokens) is too long and exceeds limit of 16384“,判断出错原因为输入超过上限,您可尝试加大配置文件中的max_tokens字段,详见:https://github.com/OpenBMB/XAgent/blob/main/assets/xagentllama.yml
您好,从您的docker run xagentteam/xagentgen:latest 终端第一行:”WARNING 12-05 10:08:06 scheduler.py:147] Input prompt (17751 tokens) is too long and exceeds limit of 16384“,判断出错原因为输入超过上限,您可尝试加大配置文件中的max_tokens字段,详见:https://github.com/OpenBMB/XAgent/blob/main/assets/xagentllama.yml
好的,对于您说的加大配置文件中的max_tokens字段,是任意加大吗?还是说有什么限制条件?
您好,目前没有什么限制,建议加大为32768
您好,目前没有什么限制,建议加大为32768
您好,我通过修改assets/xagentllama.yml中的max_tokens为32768,运行时仍会报这个错Input prompt (16479 tokens) is too long and exceeds limit of 16384,可是我已经修改了参数,请问这是什么原因呢?
您好,我通过修改assets/xagentllama.yml中的max_tokens为32768,运行时仍会报这个错Input prompt (16479 tokens) is too long and exceeds limit of 16384,可是我已经修改了参数,请问这是什么原因呢?
不好意思,之前的回复有误。因为xagentllama用的基座模型是codellama,最长上下文支持16384,理论上并不支持更大的上下文长度。若需要强行扩大上下文长度,需要修改以下部分:
提示:由于codellama本身并不支持超过16384的上下文,采取以上的方式可能会降低模型的性能,建议等待后续团队release其他模型或者修改模型推理方式以支持更长的上下文。
Issue Description / 问题描述
按照 使用XAgentGen 运行
python run.py
,运行到一半报错chatcompletion error: Expecting value: line 1 column 1 (char 0)Steps to Reproduce / 复现步骤
https://github.com/OpenBMB/XAgent/blob/main/XAgentGen/README.md
Expected Behavior / 预期行为
正常结束返回值
Environment / 环境信息
Error Screenshots or Logs / 错误截图或日志
python run.py 终端错误:![1701821931429](https://github.com/OpenBMB/XAgent/assets/90330685/fb77ca66-154f-4545-ad96-54af14223af5)
docker run xagentteam/xagentgen:latest 终端错误: