L’API Responses est la nouvelle API de conversation avec état d’OpenAI. LemonData prend en charge ce format pour les modèles compatibles.
Corps de la requête
ID du modèle à utiliser. Voir Models pour les options disponibles.
Une liste d’éléments d’entrée composant la conversation.Chaque élément peut être :
message : Un message de conversation avec un rôle et un contenu
function_call : Une requête d’appel de fonction
function_call_output : Le résultat d’un appel de fonction
Instructions système pour le modèle (équivalent au message système).
Nombre maximum de tokens à générer.
Température d’échantillonnage entre 0 et 2.
Une liste d’outils que le modèle peut appeler.
Si vrai, renvoie un flux d’événements.
ID d’une réponse précédente pour continuer la conversation à partir de celle-ci.
Indique s’il faut stocker la réponse pour une récupération ultérieure.
Métadonnées à joindre à la réponse à des fins de suivi.
Options de configuration de la génération de texte.
Indique s’il faut autoriser plusieurs appels d’outils en parallèle.
Paramètre d’échantillonnage nucléaire (0-1).
Configuration du raisonnement pour les modèles o1/o3.
effort (string) : Niveau d’effort de raisonnement (low, medium, high)
Réponse
Identifiant unique de la réponse.
Horodatage Unix du moment où la réponse a été créée.
Liste des éléments de sortie générés par le modèle.
Statistiques d’utilisation des tokens.
curl -X POST "https://api.lemondata.cc/v1/responses" \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"input": [
{"type": "message", "role": "user", "content": "Hello!"}
],
"max_output_tokens": 1000
}'
{
"id": "resp_abc123",
"object": "response",
"created_at": 1706000000,
"model": "gpt-4o",
"output": [
{
"type": "message",
"role": "assistant",
"content": [
{"type": "text", "text": "Hello! How can I help you today?"}
]
}
],
"usage": {
"input_tokens": 10,
"output_tokens": 12,
"total_tokens": 22
}
}