POST /v1/chat/completions como a rota padrão compatível com OpenAI, a menos que você precise explicitamente do comportamento específico do Responses.
Corpo da Requisição
Uma lista de itens de entrada que compõem a conversa.Cada item pode ser:
message: Uma mensagem de conversa com role e contentfunction_call: Uma solicitação de chamada de funçãofunction_call_output: Saída de uma chamada de função
message.content pode ser uma string simples ou um array de blocos de conteúdo. Para modelos com capacidade de imagem, como variantes GPT-5.4, envie imagens como blocos input_image em vez de incorporar URLs ou strings Base64 diretamente em texto simples.Exemplo de blocos de conteúdo:{ "type": "input_text", "text": "Describe this image" }{ "type": "input_image", "image_url": "https://example.com/image.jpg" }{ "type": "input_image", "image_url": "data:image/png;base64,..." }
Instruções do sistema para o modelo (equivalente à mensagem do system).
Número máximo de tokens a serem gerados.
Temperatura de amostragem entre 0 e 2.
Uma lista de ferramentas que o modelo pode chamar.
Se true, retorna um fluxo de eventos.
ID de uma resposta anterior para continuar a conversa a partir dela.
Se a resposta deve ser armazenada para recuperação posterior.
Metadados para anexar à resposta para fins de rastreamento.
Opções de configuração para geração de texto. O comportamento de
text.format depende do modelo selecionado e do caminho roteado; não é garantido de forma uniforme em todos os modelos.Se permite múltiplas chamadas de ferramentas em paralelo.
Parâmetro de amostragem nucleus (0-1).
Configuração de raciocínio para modelos com suporte a raciocínio, como variantes da família GPT-5.
effort(string): Nível de esforço de raciocínio (low,medium,high)
Resposta
Identificador único da resposta.
Sempre
response.Timestamp Unix de quando a resposta foi criada.
Lista de itens de saída gerados pelo modelo.
Estatísticas de uso de tokens.