LemonData prend en charge trois formats d’API natifs avec une seule clé API. Choisissez le format qui convient le mieux à votre cas d’utilisation - aucun changement de configuration n’est nécessaire.
Format OpenAI
/v1/chat/completions
Format standard, compatibilité la plus large
Format Anthropic
/v1/messages
Réflexion étendue, fonctionnalités Claude natives
Format Gemini
/v1beta/models/:model:generateContent
Intégration à l’écosystème Google
Le format le plus largement compatible. Fonctionne avec tous les modèles LemonData.
Copier
from openai import OpenAIclient = OpenAI( api_key="sk-your-lemondata-key", base_url="https://api.lemondata.cc/v1")# Fonctionne avec N'IMPORTE QUEL modèleresponse = client.chat.completions.create( model="claude-sonnet-4-5", # Claude via le format OpenAI messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ])
# Avant (OpenAI)client = OpenAI(api_key="sk-openai-key")# Après (LemonData)client = OpenAI( api_key="sk-lemondata-key", base_url="https://api.lemondata.cc/v1" # Ajouter cette ligne)# C'est tout ! Le même code fonctionne
# Avant (Anthropic)client = Anthropic(api_key="sk-ant-key")# Après (LemonData)client = Anthropic( api_key="sk-lemondata-key", base_url="https://api.lemondata.cc" # Ajouter cette ligne (pas de /v1 !))
from openai import OpenAIclient = OpenAI(base_url="https://api.lemondata.cc/v1", api_key="sk-...")# Tous ces modèles fonctionnent avec le même SDK :response = client.chat.completions.create(model="gpt-4o", ...)response = client.chat.completions.create(model="claude-sonnet-4-5", ...)response = client.chat.completions.create(model="gemini-2.5-flash", ...)
Bien que le cross-format fonctionne pour la plupart des fonctionnalités, les fonctionnalités spécifiques à un format (comme la réflexion étendue d’Anthropic) nécessitent le format natif.