Passer au contenu principal

Format de réponse d’erreur

Toutes les erreurs renvoient un format JSON cohérent :
{
  "error": {
    "message": "Human-readable error description",
    "type": "error_type",
    "code": "error_code",
    "param": "parameter_name"  // Optional, for validation errors
  }
}

Codes d’état HTTP

CodeDescription
400Bad Request - Paramètres invalides
401Unauthorized - Clé API invalide ou manquante
402Payment Required - Solde insuffisant
403Forbidden - Accès refusé ou modèle non autorisé
404Not Found - Modèle ou ressource non trouvé
413Payload Too Large - Taille de l’entrée ou du fichier dépassée
429Too Many Requests - Limite de débit dépassée
500Internal Server Error
502Bad Gateway - Erreur du fournisseur en amont
503Service Unavailable - Tous les canaux ont échoué
504Gateway Timeout - La requête a expiré

Types d’erreurs

Erreurs d’authentification (401)

TypeCodeDescription
invalid_api_keyinvalid_api_keyLa clé API est manquante ou invalide
expired_api_keyexpired_api_keyLa clé API a été révoquée
from openai import OpenAI, AuthenticationError

try:
    response = client.chat.completions.create(...)
except AuthenticationError as e:
    print(f"Authentication failed: {e.message}")

Erreurs de paiement (402)

TypeCodeDescription
insufficient_quotainsufficient_quotaLe solde du compte est trop bas
quota_exceededquota_exceededLimite d’utilisation de la clé API atteinte
from openai import OpenAI, APIStatusError

try:
    response = client.chat.completions.create(...)
except APIStatusError as e:
    if e.status_code == 402:
        print("Please top up your account balance")

Erreurs d’accès (403)

TypeCodeDescription
access_deniedaccess_deniedAccès à la ressource refusé
access_deniedmodel_not_allowedModèle non autorisé pour cette clé API
{
  "error": {
    "message": "You don't have permission to access this model",
    "type": "access_denied",
    "code": "model_not_allowed"
  }
}

Erreurs de validation (400)

TypeDescription
invalid_request_errorLes paramètres de la requête sont invalides
context_length_exceededEntrée trop longue pour le modèle
model_not_foundLe modèle demandé n’existe pas
{
  "error": {
    "message": "model: 'invalid-model' is not a valid model",
    "type": "model_not_found",
    "param": "model"
  }
}

Erreurs de limite de débit (429)

Lorsque vous dépassez les limites de débit :
{
  "error": {
    "message": "Rate limit exceeded. Please slow down.",
    "type": "rate_limit_error",
    "code": "rate_limit_exceeded"
  }
}
En-têtes inclus :
X-RateLimit-Limit: 1000
X-RateLimit-Remaining: 0
X-RateLimit-Reset: 1234567890
Retry-After: 60

Payload Too Large (413)

Lorsque la taille de l’entrée ou du fichier dépasse les limites :
{
  "error": {
    "message": "Input size exceeds maximum allowed",
    "type": "invalid_request_error",
    "code": "payload_too_large"
  }
}
Causes courantes :
  • Fichier image trop volumineux (max 20 Mo)
  • Fichier audio trop volumineux (max 25 Mo)
  • Le texte d’entrée dépasse la longueur de contexte du modèle

Erreurs en amont (502, 503)

TypeDescription
upstream_errorLe fournisseur a renvoyé une erreur
all_channels_failedAucun fournisseur disponible
timeout_errorLa requête a expiré

Gestion des erreurs en Python

from openai import OpenAI, APIError, RateLimitError, APIConnectionError

client = OpenAI(
    api_key="sk-your-api-key",
    base_url="https://api.lemondata.cc/v1"
)

def chat_with_retry(messages, max_retries=3):
    for attempt in range(max_retries):
        try:
            return client.chat.completions.create(
                model="gpt-4o",
                messages=messages
            )
        except RateLimitError as e:
            if attempt < max_retries - 1:
                import time
                time.sleep(2 ** attempt)  # Exponential backoff
                continue
            raise
        except APIConnectionError as e:
            print(f"Connection error: {e}")
            raise
        except APIError as e:
            print(f"API error: {e.status_code} - {e.message}")
            raise

Gestion des erreurs en JavaScript

import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'sk-your-api-key',
  baseURL: 'https://api.lemondata.cc/v1'
});

async function chatWithRetry(messages, maxRetries = 3) {
  for (let attempt = 0; attempt < maxRetries; attempt++) {
    try {
      return await client.chat.completions.create({
        model: 'gpt-4o',
        messages
      });
    } catch (error) {
      if (error instanceof OpenAI.RateLimitError) {
        if (attempt < maxRetries - 1) {
          await new Promise(r => setTimeout(r, 2 ** attempt * 1000));
          continue;
        }
      }
      throw error;
    }
  }
}

Bonnes pratiques

En cas de limite de débit, attendez progressivement plus longtemps entre les tentatives :
wait_time = 2 ** attempt  # 1s, 2s, 4s, 8s...
Définissez toujours des délais d’expiration (timeouts) raisonnables pour éviter les requêtes bloquées :
client = OpenAI(timeout=60.0)  # 60 second timeout
Journalisez la réponse d’erreur complète, y compris l’ID de requête pour le support :
except APIError as e:
    logger.error(f"API Error: {e.status_code} - {e.message}")
Certains modèles ont des exigences spécifiques (par ex., max tokens, formats d’image). Validez les entrées avant d’effectuer des requêtes.