POST /v1/chat/completions as the default OpenAI-compatible route unless you explicitly need Responses-specific behavior.
Request Body
Une liste d’éléments d’entrée constituant la conversation.Chaque élément peut être :
message: Un message de conversation avec rôle et contenufunction_call: Une requête d’appel de fonctionfunction_call_output: Sortie d’un appel de fonction
message.content peut être soit une chaîne simple, soit un tableau de blocs de contenu. Pour les modèles capables de traiter des images, comme les variantes GPT-5.4, transmettez les images en tant que blocs input_image au lieu d’incorporer directement des URLs ou des chaînes Base64 dans du texte brut.Exemples de blocs de contenu :{ "type": "input_text", "text": "Describe this image" }{ "type": "input_image", "image_url": "https://example.com/image.jpg" }{ "type": "input_image", "image_url": "data:image/png;base64,..." }
Instructions système pour le modèle (équivalent du message système).
Nombre maximal de tokens à générer.
Température d’échantillonnage entre 0 et 2.
Une liste d’outils que le modèle peut appeler.
Si true, renvoie un flux d’événements.
ID d’une réponse précédente à partir de laquelle continuer la conversation.
Indique s’il faut stocker la réponse pour une récupération ultérieure.
Métadonnées à attacher à la réponse à des fins de suivi.
Options de configuration pour la génération de texte. Le comportement de
text.format dépend du modèle sélectionné et du chemin routé ; il n’est pas garanti de manière uniforme sur tous les modèles.Indique s’il faut autoriser plusieurs appels d’outils en parallèle.
Paramètre de sampling Nucleus (0-1).
Configuration du raisonnement pour les modèles prenant en charge le raisonnement, tels que les variantes de la famille GPT-5.
effort(string) : Niveau d’effort de raisonnement (low,medium,high)
Response
Identifiant unique de la réponse.
Toujours
response.Timestamp Unix de création de la réponse.
Liste des éléments de sortie générés par le modèle.
Statistiques d’utilisation des tokens.