Passer au contenu principal
The Responses API is OpenAI’s newer stateful conversation API. LemonData supports this format as an advanced optional path for compatible models; use POST /v1/chat/completions as the default OpenAI-compatible route unless you explicitly need Responses-specific behavior.

Request Body

model
string
requis
ID du modèle à utiliser. Voir Models pour les options disponibles.
input
array
requis
Une liste d’éléments d’entrée constituant la conversation.Chaque élément peut être :
  • message : Un message de conversation avec rôle et contenu
  • function_call : Une requête d’appel de fonction
  • function_call_output : Sortie d’un appel de fonction
Pour les entrées multimodales, message.content peut être soit une chaîne simple, soit un tableau de blocs de contenu. Pour les modèles capables de traiter des images, comme les variantes GPT-5.4, transmettez les images en tant que blocs input_image au lieu d’incorporer directement des URLs ou des chaînes Base64 dans du texte brut.Exemples de blocs de contenu :
  • { "type": "input_text", "text": "Describe this image" }
  • { "type": "input_image", "image_url": "https://example.com/image.jpg" }
  • { "type": "input_image", "image_url": "data:image/png;base64,..." }
instructions
string
Instructions système pour le modèle (équivalent du message système).
max_output_tokens
integer
Nombre maximal de tokens à générer.
temperature
number
défaut:"1"
Température d’échantillonnage entre 0 et 2.
tools
array
Une liste d’outils que le modèle peut appeler.
stream
boolean
défaut:"false"
Si true, renvoie un flux d’événements.
previous_response_id
string
ID d’une réponse précédente à partir de laquelle continuer la conversation.
store
boolean
défaut:"true"
Indique s’il faut stocker la réponse pour une récupération ultérieure.
metadata
object
Métadonnées à attacher à la réponse à des fins de suivi.
text
object
Options de configuration pour la génération de texte. Le comportement de text.format dépend du modèle sélectionné et du chemin routé ; il n’est pas garanti de manière uniforme sur tous les modèles.
parallel_tool_calls
boolean
défaut:"true"
Indique s’il faut autoriser plusieurs appels d’outils en parallèle.
top_p
number
Paramètre de sampling Nucleus (0-1).
reasoning
object
Configuration du raisonnement pour les modèles prenant en charge le raisonnement, tels que les variantes de la famille GPT-5.
  • effort (string) : Niveau d’effort de raisonnement (low, medium, high)

Response

id
string
Identifiant unique de la réponse.
object
string
Toujours response.
created
integer
Timestamp Unix de création de la réponse.
output
array
Liste des éléments de sortie générés par le modèle.
usage
object
Statistiques d’utilisation des tokens.
curl -X POST "https://api.lemondata.cc/v1/responses" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "input": [
      {"type": "message", "role": "user", "content": "Hello!"}
    ],
    "max_output_tokens": 1000
  }'
{
  "id": "resp_abc123",
  "object": "response",
  "created": 1706000000,
  "model": "gpt-4o",
  "output": [
    {
      "type": "message",
      "role": "assistant",
      "content": [
        {"type": "text", "text": "Hello! How can I help you today?"}
      ]
    }
  ],
  "usage": {
    "input_tokens": 10,
    "output_tokens": 12,
    "total_tokens": 22
  }
}