Saltar para o conteúdo principal
POST
/
v1
/
chat
/
completions
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}

Request Body

model
string
obrigatório
ID do modelo a ser usado. Veja Models para as opções disponíveis.
messages
array
obrigatório
Uma lista de mensagens que compõem a conversa.Cada objeto de mensagem contém:
  • role (string): system, user, ou assistant
  • content (string | array): O conteúdo da mensagem
temperature
number
padrão:"1"
Temperatura de amostragem entre 0 e 2. Valores mais altos tornam a saída mais aleatória.
max_tokens
integer
Número máximo de tokens a serem gerados.
stream
boolean
padrão:"false"
Se verdadeiro, deltas parciais de mensagens serão enviados como eventos SSE.
stream_options
object
Opções para streaming. Defina include_usage: true para receber o uso de tokens em partes (chunks) do stream.
top_p
number
padrão:"1"
Parâmetro de amostragem de núcleo (nucleus sampling). Recomendamos alterar este ou a temperatura, mas não ambos.
frequency_penalty
number
padrão:"0"
Número entre -2.0 e 2.0. Valores positivos penalizam tokens repetidos.
presence_penalty
number
padrão:"0"
Número entre -2.0 e 2.0. Valores positivos penalizam tokens que já aparecem no texto.
stop
string | array
Até 4 sequências onde a API interromperá a geração de tokens.
tools
array
Uma lista de ferramentas que o modelo pode chamar (chamada de função).
tool_choice
string | object
Controla como o modelo utiliza as ferramentas. Opções: auto, none, required, ou um objeto de ferramenta específico.
parallel_tool_calls
boolean
padrão:"true"
Se deve habilitar chamadas de função paralelas. Defina como falso para chamar funções sequencialmente.
max_completion_tokens
integer
Máximo de tokens para a conclusão. Alternativa ao max_tokens, preferido para modelos mais recentes como o1/o3.
reasoning_effort
string
Esforço de raciocínio para modelos o1/o3. Opções: low, medium, high.
seed
integer
Semente aleatória para amostragem determinística.
n
integer
padrão:"1"
Número de conclusões a serem geradas (1-128).
logprobs
boolean
Se deve retornar probabilidades de log (log probabilities).
top_logprobs
integer
Número de probabilidades de log principais a serem retornadas (0-20). Requer logprobs: true.
top_k
integer
Parâmetro de amostragem Top-K (para modelos Anthropic/Gemini).
response_format
object
Especificação do formato de resposta. Use {"type": "json_object"} para o modo JSON, ou {"type": "json_schema", "json_schema": {...}} para saídas estruturadas.
logit_bias
object
Modifica a probabilidade de tokens específicos aparecerem. Mapeia IDs de tokens (como strings) para valores de viés de -100 a 100.
user
string
Um identificador único que representa seu usuário final para monitoramento de abusos.
cache_control
object
Opções de controle de cache da LemonData.
  • type (string): Estratégia de cache - default, no_cache, no_store, response_only, semantic_only
  • max_age (integer): TTL do cache em segundos (máximo 86400)

Resposta

id
string
Identificador único para a conclusão.
object
string
Sempre chat.completion.
created
integer
Timestamp Unix de quando a conclusão foi criada.
model
string
O modelo usado para a conclusão.
choices
array
Lista de opções de conclusão.Cada opção contém:
  • index (integer): Índice da opção
  • message (object): A mensagem gerada
  • finish_reason (string): O motivo pelo qual o modelo parou (stop, length, tool_calls)
usage
object
Estatísticas de uso de tokens.
  • prompt_tokens (integer): Tokens no prompt
  • completion_tokens (integer): Tokens na conclusão
  • total_tokens (integer): Total de tokens usados
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}