为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
GNU General Public License v3.0
63.98k
stars
7.91k
forks
source link
[Bug]: chatpaper网页版academic和本地版academic展现出较明显的问答能力差别 #964
Closed
stucash closed 4 months ago
Installation Method | 安装方法与平台
Pip Install (I used latest requirements.txt)
Version | 版本
Latest | 最新版
OS | 操作系统
Linux
Describe the bug | 简述
目前并未能确定是bug, 但碍于没有更细分的类别, 只能先暂时分到bug类了.
昨天和今天尝试了chatPDF, Sharly, chatpaper版本的gpt-academic(以下简称网络GA), 和本地直接安装运行的gpt-academic(以下简称本地GA). 不知道是不是我的本地设置有问题 (其实并未对config做任何改动, 除了添加API key), 但对于同一篇论文的理解能力和问答能力(理解PDF文档内容插件), 网络GA和本地GA表现出了较明显的差别. 本地GA明显弱于网络GA.
我附带了chatPDF和sharly的截图, 目前的感觉是, 这两者不相上下, 更具针对性的细节问题, sharly表现的更加出色一点. 这里只是用这两者来做一个参照物, 并不对他们的表现和GA做出对比. 要做对比的主要是GA的三个版本(网络GA和两个版本的本地GA).
我使用的论文是这篇 (算是无偿分享了哈哈)
realizedKernelsInPractice.Barndorff.2009.pdf
在理解方面, 本地GA很明显没有理解到optimal bandwidth这个关键的论题和作者提出的计算optimal bandwidth的公式, 在使用插件去理解的时候, 本地GA就没有输出这个内容; 网络GA正确的输出了这个内容.
这也就导致了本地GA面对这个论题的问题时比较吃力, 但是网络GA能够表现出和chatPDF还有sharly相仿的问答能力(模糊提问和精准提问都能得到符合理解的答案).
还有一个问题是两个版本都有的, 就是中英文回答会交替出现, 这个我不太理解是为啥.
这里主要对问题概述, 具体问题请看结合复现和截图.
...
其实最主要的, 调用API是真贵啊.....
Screen Shot | 有帮助的截图
图一: chatPDF 图二: Sharly 图三: chatpaper版本GA 图四: 本地GA(barebone) 图五: 本地GA(with pytorch, correct fonts and updated repo) 图六:本地GA(barebone)第二部分有关bandwidth的理解 图七:本地GA(with pytorch, correct fonts, and updated repo)第二部分有关bandwidth的理解
Terminal Traceback & Material to Help Reproduce Bugs | 终端traceback(如有) + 帮助我们复现的测试材料样本(如有)
Reproducible Example
Installation
git pull origin master
, 撰写这个issue的时候更新的 (图四是未更新状态, 图五是更新状态)pip install -r requirements.txt
7.pip安装torch (comes with cuda11, 图四未安装, 图五安装了 :facepalm:)
Configuration
Steps
python main.py
.