Open labixiaoyuan opened 3 months ago
按照 README.md 里的描述来操作,有三个疑问。一:keys.tx文件中,是否需要把groq、allma、openai 都填写?二、第5步,在Terminal 中 输入 'ollama pull moondream:1.8b-v2-fp16' 或者 'moondream:1.8b-v2-fp16' 会报错,报错如下:ollama pull moondream:1.8b-v2-fp16。。。。三、如果跳过第5步,可以正常启动,但是在web界面中输入任务命令,都是没有返回的。
因为你本地没有 ollama 模型,接口请求的时候失败所以没响应,你可以安装其他模型如:ollama3,不一定是 moondream:1.8b-v2-fp16 模型
对的,我本地是没有模型的,问别人要的的地址。我以为这样是可以的。那我现在去本机安装一个模型
请问楼主按照步骤成功了吗,我也遇到的相同问题,进入那个界面有哪些任务命令可以使用,不是任意的吗
请问楼主按照步骤成功了吗,我也遇到的相同问题, 进入那个界面有哪些任务命令可以使用,不是任意的吗
因为你本地没有 ollama 模型,接口请求的时候失败所以没响应,你可以安装其他模型如:ollama3,不一定是 moondream:1.8b-v2-fp16 模型
解释图片需要多模态的模型,也就是具备vision的,例如llava-llama3之类
按照 README.md 里的描述来操作,有三个疑问。一:keys.tx文件中,是否需要把groq、allma、openai 都填写?二、第5步,在Terminal 中 输入 'ollama pull moondream:1.8b-v2-fp16' 或者 'moondream:1.8b-v2-fp16' 会报错,报错如下:ollama pull moondream:1.8b-v2-fp16。。。。三、如果跳过第5步,可以正常启动,但是在web界面中输入任务命令,都是没有返回的。
ollama里可以拉的moondream模型的名称可能是不一样的,可根据实际的改一下代码
export const keys = { groq: '', ollama: 'http://localhost:11434/api/chat', openai: '' };