Saltar para o conteúdo principal

Visão Geral

LemonData suporta três formatos de API nativos com uma única chave de API. Escolha o formato que melhor se adapta ao seu caso de uso - sem necessidade de alterar configurações.

Formato OpenAI

/v1/chat/completions Formato padrão, compatibilidade mais ampla

Formato Anthropic

/v1/messages Raciocínio estendido, recursos nativos do Claude

Formato Gemini

/v1beta/models/:model:generateContent Integração com o ecossistema Google

Por que Multi-Formato?

BenefícioDescrição
Sem troca de SDKUse qualquer modelo com seu SDK preferido
Recursos nativosAcesse funcionalidades específicas do formato
Migração fácilMude das APIs oficiais apenas alterando a URL base
Faturamento únicoUma conta, uma chave de API, todos os formatos

Comparação de Formatos

RecursoOpenAIAnthropicGemini
Endpoint/v1/chat/completions/v1/messages/v1beta/models/:model:generateContent
Cabeçalho de AutenticaçãoAuthorization: Bearerx-api-keyAuthorization: Bearer
Prompt do SistemaNo array messagesCampo separado systemEm systemInstruction
Raciocínio Estendido
Streaming✅ SSE✅ SSE✅ SSE
Chamada de ferramentas
Visão

Formato OpenAI

O formato mais amplamente compatível e o ponto de partida padrão para a maioria das novas integrações. Funciona com o conjunto mais amplo de modelos LemonData.
from openai import OpenAI

client = OpenAI(
    api_key="sk-your-lemondata-key",
    base_url="https://api.lemondata.cc/v1"
)

# Works with ANY model
response = client.chat.completions.create(
    model="claude-sonnet-4-6",  # Claude via OpenAI format
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
)
Melhor para:
  • Uso geral
  • Integrações existentes com o SDK OpenAI
  • Compatibilidade máxima

Formato Anthropic

API Messages nativa da Anthropic. Necessário para recursos específicos do Claude, como o raciocínio estendido.
from anthropic import Anthropic

client = Anthropic(
    api_key="sk-your-lemondata-key",
    base_url="https://api.lemondata.cc"  # No /v1 suffix!
)

message = client.messages.create(
    model="claude-sonnet-4-6",
    max_tokens=1024,
    system="You are a helpful assistant.",  # Separate system field
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

Raciocínio Estendido (Claude Opus 4.6)

Disponível apenas no formato Anthropic:
message = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=16000,
    thinking={
        "type": "enabled",
        "budget_tokens": 10000
    },
    messages=[{"role": "user", "content": "Solve this complex problem..."}]
)

# Access thinking process
for block in message.content:
    if block.type == "thinking":
        print(f"Thinking: {block.thinking}")
    elif block.type == "text":
        print(f"Answer: {block.text}")
Melhor para:
  • Recursos específicos do Claude
  • Modo de raciocínio estendido
  • Usuários do SDK Anthropic nativo

Formato Gemini

Formato nativo da API Google Gemini para integração ao ecossistema Google.
curl "https://api.lemondata.cc/v1beta/models/gemini-2.5-flash:generateContent" \
  -H "Authorization: Bearer sk-your-lemondata-key" \
  -H "Content-Type: application/json" \
  -d '{
    "contents": [{
      "parts": [{"text": "Hello!"}]
    }],
    "systemInstruction": {
      "parts": [{"text": "You are a helpful assistant."}]
    }
  }'

Streaming

curl "https://api.lemondata.cc/v1beta/models/gemini-2.5-flash:streamGenerateContent?alt=sse" \
  -H "Authorization: Bearer sk-your-lemondata-key" \
  -H "Content-Type: application/json" \
  -d '{
    "contents": [{"parts": [{"text": "Write a story"}]}]
  }'
Melhor para:
  • Integrações com Google Cloud
  • Código existente do SDK Gemini
  • Recursos nativos do Gemini

Escolhendo o Formato Certo

Guias de Migração

A partir da API Oficial da OpenAI

# Before (OpenAI)
client = OpenAI(api_key="sk-openai-key")

# After (LemonData)
client = OpenAI(
    api_key="sk-lemondata-key",
    base_url="https://api.lemondata.cc/v1"  # Add this line
)
# That's it! Same code works

A partir da API Oficial da Anthropic

# Before (Anthropic)
client = Anthropic(api_key="sk-ant-key")

# After (LemonData)
client = Anthropic(
    api_key="sk-lemondata-key",
    base_url="https://api.lemondata.cc"  # Add this line (no /v1!)
)

A partir do Google AI Studio

# Before (Google)
import google.generativeai as genai
genai.configure(api_key="google-api-key")

# After (LemonData) - Use REST API
import requests

response = requests.post(
    "https://api.lemondata.cc/v1beta/models/gemini-2.5-flash:generateContent",
    headers={"Authorization": "Bearer sk-lemondata-key"},
    json={"contents": [{"parts": [{"text": "Hello"}]}]}
)

Compatibilidade entre Modelos

A mágica do LemonData: use qualquer SDK com qualquer modelo. O gateway lida automaticamente com a conversão de formatos.

Qualquer SDK → Qualquer Modelo

# Anthropic SDK with GPT-4o (auto-converts to OpenAI format)
from anthropic import Anthropic

client = Anthropic(
    api_key="sk-lemondata-key",
    base_url="https://api.lemondata.cc"
)

response = client.messages.create(
    model="gpt-4o",  # ✅ Works! Auto-converted
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello!"}]
)

# Same SDK, different models - no code changes
response = client.messages.create(model="gemini-2.5-flash", ...)  # ✅ Works!
response = client.messages.create(model="deepseek-r1", ...)       # ✅ Works!

SDK OpenAI → Todos os Modelos

from openai import OpenAI

client = OpenAI(base_url="https://api.lemondata.cc/v1", api_key="sk-...")

# All these work with the same SDK:
response = client.chat.completions.create(model="gpt-4o", ...)
response = client.chat.completions.create(model="claude-sonnet-4-6", ...)
response = client.chat.completions.create(model="gemini-2.5-flash", ...)

Comparação entre Plataformas

PlataformaFormato OpenAIFormato AnthropicFormato GeminiResponses API
LemonData✅ Todos os modelos✅ Todos os modelos✅ Todos os modelos✅ Todos os modelos
OpenRouter✅ Todos os modelos
Together AI✅ Todos os modelos
Fireworks✅ Todos os modelos
Embora a compatibilidade entre formatos funcione para a maioria dos recursos, funcionalidades específicas de formato (como o raciocínio estendido da Anthropic) exigem o uso do formato nativo.