Closed jtsang4 closed 6 months ago
groq的API兼容openai格式,渠道API地址写 https://api.groq.com/openai 即可
groq的API兼容openai格式,渠道API地址写 https://api.groq.com/openai 即可
👍 确实可以用,估记我昨天测试的时候填错了
groq的API兼容openai格式,渠道API地址写 https://api.groq.com/openai 即可
请问是选择自定义渠道然后设置 baseUrl 为 https://api.grpq.com/openai 吗? 我试了下这个方案,测试接口提示
错误:status code 404: The model
gpt-3.5-turbo
does not exist or you do not have access to it.
也尝试了直接选择 openai 的渠道类型,然后代理地址设置为 https://api.groq.com/openai 也是报一样错误。 是不是那里设置不太对呀?
groq的API兼容openai格式,渠道API地址写 https://api.groq.com/openai 即可
请问是选择自定义渠道然后设置 baseUrl 为 https://api.grpq.com/openai 吗? 我试了下这个方案,测试接口提示
错误:status code 404: The model
gpt-3.5-turbo
does not exist or you do not have access to it.也尝试了直接选择 openai 的渠道类型,然后代理地址设置为 https://api.groq.com/openai 也是报一样错误。 是不是那里设置不太对呀?
你需要配置模型为 mixtral-8x7b-32768
或 llama2-70b-4096
。
groq的API兼容openai格式,渠道API地址写 https://api.groq.com/openai 即可
请问是选择自定义渠道然后设置 baseUrl 为 https://api.grpq.com/openai 吗? 我试了下这个方案,测试接口提示
错误:status code 404: The model
gpt-3.5-turbo
does not exist or you do not have access to it.也尝试了直接选择 openai 的渠道类型,然后代理地址设置为 https://api.groq.com/openai 也是报一样错误。 是不是那里设置不太对呀?
你需要配置模型为
mixtral-8x7b-32768
或llama2-70b-4096
。
对的,配置了这个模型。下面截图是尝试的两种方式的配置。
@KrabsWong 像这样即可,在使用的时候在对应的客户端填入 custom model name mixtral-8x7b-32768
@KrabsWong 像这样即可,在使用的时候在对应的客户端填入 custom model name
mixtral-8x7b-32768
明白了,感谢
@KrabsWong 像这样即可,在使用的时候在对应的客户端填入 custom model name
mixtral-8x7b-32768
@jiz4oh 使用第三方客户端,出现这样的错误:(直接填写Groq的key到客户端就能正常使用) "error": { "message": "tools
is not supported with this model (request id: 2024030808155972780750603165139)", "type": "invalid_request_error", "param": "", "code": null
@jiz4oh 使用第三方客户端,出现这样的错误:(直接填写Groq的key到客户端就能正常使用) "error": { "message": "
tools
is not supported with this model (request id: 2024030808155972780750603165139)", "type": "invalid_request_error", "param": "", "code": null
Groq 使用的 mixtral 和 llama2 不支持插件调用
例行检查
功能描述 支持 https://groq.com/ 的模型
应用场景 目前 Groq 的模型免费且性能非常好