BasedHardware / OpenGlass

Turn any glasses into AI-powered smart glasses
https://openglass.ai
MIT License
3.28k stars 410 forks source link

in keys.ts,I need full three ? #35

Open labixiaoyuan opened 3 months ago

labixiaoyuan commented 3 months ago

export const keys = { groq: '', ollama: 'http://localhost:11434/api/chat', openai: '' };

labixiaoyuan commented 3 months ago

按照 README.md 里的描述来操作,有三个疑问。一:keys.tx文件中,是否需要把groq、allma、openai 都填写?二、第5步,在Terminal 中 输入 'ollama pull moondream:1.8b-v2-fp16' 或者 'moondream:1.8b-v2-fp16' 会报错,报错如下:ollama pull moondream:1.8b-v2-fp16。。。。三、如果跳过第5步,可以正常启动,但是在web界面中输入任务命令,都是没有返回的。 photo

GALA009 commented 3 months ago

因为你本地没有 ollama 模型,接口请求的时候失败所以没响应,你可以安装其他模型如:ollama3,不一定是 moondream:1.8b-v2-fp16 模型

labixiaoyuan commented 3 months ago

对的,我本地是没有模型的,问别人要的的地址。我以为这样是可以的。那我现在去本机安装一个模型

YMAdAstra commented 3 months ago

请问楼主按照步骤成功了吗,我也遇到的相同问题,进入那个界面有哪些任务命令可以使用,不是任意的吗

YMAdAstra commented 3 months ago

请问楼主按照步骤成功了吗,我也遇到的相同问题, 图片 进入那个界面有哪些任务命令可以使用,不是任意的吗

HaoHoo commented 2 months ago

因为你本地没有 ollama 模型,接口请求的时候失败所以没响应,你可以安装其他模型如:ollama3,不一定是 moondream:1.8b-v2-fp16 模型

解释图片需要多模态的模型,也就是具备vision的,例如llava-llama3之类

HaoHoo commented 2 months ago

按照 README.md 里的描述来操作,有三个疑问。一:keys.tx文件中,是否需要把groq、allma、openai 都填写?二、第5步,在Terminal 中 输入 'ollama pull moondream:1.8b-v2-fp16' 或者 'moondream:1.8b-v2-fp16' 会报错,报错如下:ollama pull moondream:1.8b-v2-fp16。。。。三、如果跳过第5步,可以正常启动,但是在web界面中输入任务命令,都是没有返回的。 photo

ollama里可以拉的moondream模型的名称可能是不一样的,可根据实际的改一下代码