LemonData admite tres formatos de API nativos con una sola clave API. Elige el formato que mejor se adapte a tu caso de uso: no se necesitan cambios de configuración.
Formato OpenAI
/v1/chat/completions
Formato estándar, la mayor compatibilidad
Formato Anthropic
/v1/messages
Razonamiento extendido, funciones nativas de Claude
Formato Gemini
/v1beta/models/:model:generateContent
Integración con el ecosistema de Google
El formato más compatible y el punto de partida predeterminado para la mayoría de las nuevas integraciones. Funciona con el conjunto más amplio de modelos de LemonData.
from openai import OpenAIclient = OpenAI( api_key="sk-your-lemondata-key", base_url="https://api.lemondata.cc/v1")# Works with ANY modelresponse = client.chat.completions.create( model="claude-sonnet-4-6", # Claude via OpenAI format messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ])
API Messages nativa de Anthropic. Requerido para funciones específicas de Claude, como el razonamiento extendido.
from anthropic import Anthropicclient = Anthropic( api_key="sk-your-lemondata-key", base_url="https://api.lemondata.cc" # No /v1 suffix!)message = client.messages.create( model="claude-sonnet-4-6", max_tokens=1024, system="You are a helpful assistant.", # Separate system field messages=[ {"role": "user", "content": "Hello!"} ])
# Before (OpenAI)client = OpenAI(api_key="sk-openai-key")# After (LemonData)client = OpenAI( api_key="sk-lemondata-key", base_url="https://api.lemondata.cc/v1" # Add this line)# That's it! Same code works
# Before (Anthropic)client = Anthropic(api_key="sk-ant-key")# After (LemonData)client = Anthropic( api_key="sk-lemondata-key", base_url="https://api.lemondata.cc" # Add this line (no /v1!))
from openai import OpenAIclient = OpenAI(base_url="https://api.lemondata.cc/v1", api_key="sk-...")# All these work with the same SDK:response = client.chat.completions.create(model="gpt-4o", ...)response = client.chat.completions.create(model="claude-sonnet-4-6", ...)response = client.chat.completions.create(model="gemini-2.5-flash", ...)
Aunque el uso entre formatos funciona para la mayoría de las funcionalidades, las funciones específicas de cada formato (como el razonamiento extendido de Anthropic) requieren el formato nativo.