Open Zoumachuan opened 4 months ago
实际上,我认为这个截断的功能并没有发挥作用,根据观察似乎2048的token依旧被裁剪为2048的token。因此在修改了“批量Markdown翻译.py”中的max_token_limit后方能使用。个人使用的是第三方api的GPT-4o模型,目前正在和上游确认最大输出token是多少。如果你的第三方api也出现了同样的问题,可以尝试使用这个方法。
pfg.run_file_split(max_token_limit=1024) n_split = len(pfg.sp_file_contents)
Installation Method | 安装方法与平台
Pip Install (I used latest requirements.txt)
Version | 版本
Latest | 最新版
OS | 操作系统
Linux
Describe the bug | 简述
在进行PDF翻译时成功被DOC2X读取,但在翻译过程中由于未知原因(可能是文章裁切)使得翻译过程出现大量截断重试,且每次截断重试都从头开始,如此循环往复消耗了我大量的token且没有正确的翻译结果。
Screen Shot | 有帮助的截图
Terminal Traceback & Material to Help Reproduce Bugs | 终端traceback(如有) + 帮助我们复现的测试材料样本(如有)
No response