maritaca-ai / maritalk-api

Code and documentation for the MariTalk API
https://docs.maritaca.ai
MIT License
249 stars 13 forks source link

HTTP Resquest não funciona #69

Closed devalexandre closed 7 months ago

devalexandre commented 7 months ago
curl --location 'https://chat.maritaca.ai/api/chat/inference' \
--header 'accept: application/json' \
--header 'Content-Type: application/json' \
--header 'Authorization: key ****$f410151375330261' \
--data '{
  "messages": [
    {
      "role": "string",
      "content": "string"
    }
  ],
  "chat_mode": true,
  "max_tokens": 1,
  "model": "sabia-2-small",
  "do_sample": true,
  "temperature": 0.7,
  "top_p": 0.95,
  "repetition_penalty": 1,
  "stopping_tokens": [
    "string"
  ],
  "stream": false,
  "num_tokens_per_message": 4
}'

{ "detail": "Sorry, you need to be a premium user to use MariTalk via API. Make sure that your account is active." }

o plano esta ativo, mas simplismente nao funciona

image

rodrigo-f-nogueira commented 7 months ago

Obrigado por avisar, estamos verificando o problema

ZanezZephyrs commented 7 months ago

oi @devalexandre . O problema que você estava tendo era um bug em relação ao header de autorização, deveria estar funcionando normalmente agora.

Obrigado por avisar e se continuar tendo algum problema é so falar.

devalexandre commented 7 months ago

legal, mas encontri outro detalhe, nao esta retornando a resposta.

payload:

{
  "messages": [
      {"role": "user", "content": "quanto é 25 + 27?"}
  ],
  "chat_mode": true,
  "max_tokens": 1,
  "model": "sabia-2-small",
  "do_sample": true,
  "temperature": 0.6,
  "top_p": 0.95,
  "repetition_penalty": 1,
  "stopping_tokens": [],
  "stream": false,
  "num_tokens_per_message": 4
}

response

{
    "answer": " ",
    "usage": {
        "completion_tokens": 1,
        "prompt_tokens": 19,
        "total_tokens": 20
    },
    "model": "sabia-2-small"
}
piresramon commented 7 months ago

Oi @devalexandre. Nesse caso, acho que falta você aumentar o max_tokens. Como está setado como 1, o modelo gerou 1 token e parou.