binary-husky / gpt_academic

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
https://github.com/binary-husky/gpt_academic/wiki/online
GNU General Public License v3.0
64.41k stars 7.97k forks source link

[Bug]: 翻译latex切分文件是不是切的太细了呀 #1808

Open whz-pku opened 4 months ago

whz-pku commented 4 months ago

Installation Method | 安装方法与平台

OneKeyInstall (一键安装脚本-windows)

Version | 版本

Latest | 最新版

OS | 操作系统

Windows

Describe the bug | 简述

我发现latex切分后每段就翻译100token左右,感觉完全没有利用gpt的潜力,不知道具体如何修改呀

Screen Shot | 有帮助的截图

image

Terminal Traceback & Material to Help Reproduce Bugs | 终端traceback(如有) + 帮助我们复现的测试材料样本(如有)

No response

dz306271098 commented 4 months ago

现在诸如GPT-4o基本都有128K的上下文能力,翻译Latex基本可以不用分割那么多段了。建议把分割长度的参数暴露出来。