Open truthsun22 opened 4 months ago
通过ollama接口访问ollama服务,模型为qwen2:7b。但是效果很差,回答经常是不从参考内容给出,而是大模型自己的回答,请问如何优化?谢谢
能问一下是在哪替换的模型么,谢谢
你上传了啥文件?感觉QAnything的pdf转markdown效果很一般,机器人回答下面搜索到的原文看起来识别得乱七八糟的。看源码,没有用模型,而是用传统算法。如果是pdf,那可能是这个问题。 另外像agent、rag这些应用都是围绕llm来搭建的,如果llm不够”聪明“,效果肯定不好。QAnything提问的prompt已经包含了要求模型要用搜索到的知识去回答,但模型明显没按照要求来,说明7b的模型还是不行。
qwen2-7b是基础模型,指令遵循能力较差,要用建议用instruct模型或chat模型,比如qwen2-7b-instruct或qwen2-72b-instruct
@goIntoAction pdf转markdown有两种模式,一种是性能版,注重解析速度,一种是强力版,注重效果,性能版没走模型,强力版用了检测识别版面分析和表格检测模型,开启方式:https://github.com/netease-youdao/QAnything/blob/master/QAnything%E4%BD%BF%E7%94%A8%E8%AF%B4%E6%98%8E.md#pdf%E5%8C%85%E5%90%AB%E8%A1%A8%E6%A0%BC%E8%A7%A3%E6%9E%90%E6%95%88%E6%9E%9C
@goIntoAction pdf转markdown有两种模式,一种是性能版,注重解析速度,一种是强力版,注重效果,性能版没走模型,强力版用了检测识别版面分析和表格检测模型,开启方式:https://github.com/netease-youdao/QAnything/blob/master/QAnything%E4%BD%BF%E7%94%A8%E8%AF%B4%E6%98%8E.md#pdf%E5%8C%85%E5%90%AB%E8%A1%A8%E6%A0%BC%E8%A7%A3%E6%9E%90%E6%95%88%E6%9E%9C
@xixihahaliu 创建PdfLoader的时候传入root_dir参数,但init函数已经去掉了这个参数,会创建失败,然后又走快速解析的逻辑
通过ollama接口访问ollama服务,模型为qwen2:7b。但是效果很差,回答经常是不从参考内容给出,而是大模型自己的回答,请问如何优化?谢谢