Saltar para o conteúdo principal
The Responses API é a API de conversação com estado mais recente da OpenAI. LemonData suporta este formato como um caminho opcional avançado para modelos compatíveis; use POST /v1/chat/completions como a rota padrão compatível com OpenAI, a menos que você precise explicitamente do comportamento específico do Responses.

Corpo da Requisição

model
string
obrigatório
ID do modelo a ser usado. Veja Models para as opções disponíveis.
input
array
obrigatório
Uma lista de itens de entrada que compõem a conversa.Cada item pode ser:
  • message: Uma mensagem de conversa com role e content
  • function_call: Uma solicitação de chamada de função
  • function_call_output: Saída de uma chamada de função
Para entrada multimodal, message.content pode ser uma string simples ou um array de blocos de conteúdo. Para modelos com capacidade de imagem, como variantes GPT-5.4, envie imagens como blocos input_image em vez de incorporar URLs ou strings Base64 diretamente em texto simples.Exemplo de blocos de conteúdo:
  • { "type": "input_text", "text": "Describe this image" }
  • { "type": "input_image", "image_url": "https://example.com/image.jpg" }
  • { "type": "input_image", "image_url": "data:image/png;base64,..." }
instructions
string
Instruções do sistema para o modelo (equivalente à mensagem do system).
max_output_tokens
integer
Número máximo de tokens a serem gerados.
temperature
number
padrão:"1"
Temperatura de amostragem entre 0 e 2.
tools
array
Uma lista de ferramentas que o modelo pode chamar.
stream
boolean
padrão:"false"
Se true, retorna um fluxo de eventos.
previous_response_id
string
ID de uma resposta anterior para continuar a conversa a partir dela.
store
boolean
padrão:"true"
Se a resposta deve ser armazenada para recuperação posterior.
metadata
object
Metadados para anexar à resposta para fins de rastreamento.
text
object
Opções de configuração para geração de texto. O comportamento de text.format depende do modelo selecionado e do caminho roteado; não é garantido de forma uniforme em todos os modelos.
parallel_tool_calls
boolean
padrão:"true"
Se permite múltiplas chamadas de ferramentas em paralelo.
top_p
number
Parâmetro de amostragem nucleus (0-1).
reasoning
object
Configuração de raciocínio para modelos com suporte a raciocínio, como variantes da família GPT-5.
  • effort (string): Nível de esforço de raciocínio (low, medium, high)

Resposta

id
string
Identificador único da resposta.
object
string
Sempre response.
created
integer
Timestamp Unix de quando a resposta foi criada.
output
array
Lista de itens de saída gerados pelo modelo.
usage
object
Estatísticas de uso de tokens.
curl -X POST "https://api.lemondata.cc/v1/responses" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "input": [
      {"type": "message", "role": "user", "content": "Hello!"}
    ],
    "max_output_tokens": 1000
  }'
{
  "id": "resp_abc123",
  "object": "response",
  "created": 1706000000,
  "model": "gpt-4o",
  "output": [
    {
      "type": "message",
      "role": "assistant",
      "content": [
        {"type": "text", "text": "Hello! How can I help you today?"}
      ]
    }
  ],
  "usage": {
    "input_tokens": 10,
    "output_tokens": 12,
    "total_tokens": 22
  }
}