Saltar al contenido principal

Request Body

model
string
requerido
ID del modelo a usar. Consulte Models para las opciones disponibles.
messages
array
requerido
Una lista de mensajes que componen la conversación.Cada objeto de mensaje contiene:
  • role (string): system, user o assistant
  • content (string | array): El contenido del mensaje
Cuando content es un array, LemonData admite bloques multimodales estructurados para modelos compatibles:
  • text: { "type": "text", "text": "..." }
  • image: { "type": "image_url", "image_url": { "url": "https://..." } }
  • video: { "type": "video_url", "video_url": { "url": "https://..." } }
  • audio: { "type": "audio_url", "audio_url": { "url": "https://..." } }
Para tráfico multimodal en producción, prefiera URLs públicas https. LemonData traducirá estos bloques de medios al formato de solicitud específico del proveedor requerido por el modelo físico enrutado.
temperature
number
predeterminado:"1"
Temperatura de muestreo entre 0 y 2. Valores más altos hacen la salida más aleatoria.
max_tokens
integer
Número máximo de tokens a generar.
stream
boolean
predeterminado:"false"
Si es true, se enviarán deltas parciales del mensaje como eventos SSE.
stream_options
object
Opciones para streaming. Establezca include_usage: true para recibir el uso de tokens en fragmentos de la transmisión.
top_p
number
predeterminado:"1"
Parámetro de muestreo Nucleus. Recomendamos alterar esto o la temperatura, no ambos.
frequency_penalty
number
predeterminado:"0"
Número entre -2.0 y 2.0. Los valores positivos penalizan tokens repetidos.
presence_penalty
number
predeterminado:"0"
Número entre -2.0 y 2.0. Los valores positivos penalizan tokens que ya están en el texto.
stop
string | array
Hasta 4 secuencias donde la API dejará de generar tokens.
tools
array
Una lista de herramientas que el modelo puede invocar (llamado de funciones).
tool_choice
string | object
Controla cómo el modelo usa las herramientas. Opciones: auto, none, required, o un objeto de herramienta específico.
parallel_tool_calls
boolean
predeterminado:"true"
Indica si se habilitan llamadas a funciones en paralelo. Establézcalo en false para llamar a las funciones de forma secuencial.
max_completion_tokens
integer
Tokens máximos para la completación. Alternativa a max_tokens, útil para familias de modelos más nuevas con capacidad de razonamiento.
reasoning_effort
string
Esfuerzo de razonamiento para modelos con capacidad de razonamiento. Opciones: low, medium, high.
seed
integer
Semilla aleatoria para muestreo determinista.
n
integer
predeterminado:"1"
Número de completaciones a generar (1-128).
logprobs
boolean
Si se deben retornar las probabilidades logarítmicas.
top_logprobs
integer
Número de probabilidades logarítmicas superiores a retornar (0-20). Requiere logprobs: true.
top_k
integer
Parámetro de muestreo Top-K (para modelos Anthropic/Gemini).
response_format
object
Especificación del formato de respuesta. Use {"type": "json_object"} para modo JSON. Considere {"type": "json_schema", "json_schema": {...}} como una ruta de mejores esfuerzos que depende del modelo seleccionado y del comportamiento de enrutamiento.
logit_bias
object
Modifica la probabilidad de aparición de tokens especificados. Mapee IDs de tokens (como strings) a valores de sesgo de -100 a 100.
user
string
Un identificador único que representa a su usuario final para la monitorización de abuso.
cache_control
object
Opciones de control de caché de LemonData.
  • type (string): Estrategia de caché - default, no_cache, no_store, response_only, semantic_only
  • max_age (integer): TTL de caché en segundos (máx. 86400)

Response

id
string
Identificador único para la completación.
object
string
Siempre chat.completion.
created
integer
Marca de tiempo Unix de cuando se creó la completación.
model
string
El modelo usado para la completación.
choices
array
Lista de opciones de completación.Cada opción contiene:
  • index (integer): Índice de la opción
  • message (object): El mensaje generado
  • finish_reason (string): Por qué el modelo se detuvo (stop, length, tool_calls)
usage
object
Estadísticas de uso de tokens.
  • prompt_tokens (integer): Tokens en el prompt
  • completion_tokens (integer): Tokens en la completación
  • total_tokens (integer): Tokens totales utilizados
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'

Ejemplo multimodal

{
  "model": "gemini-2.5-pro",
  "messages": [
    {
      "role": "user",
      "content": [
        { "type": "text", "text": "Describe this video briefly." },
        { "type": "video_url", "video_url": { "url": "https://example.com/demo.mp4" } }
      ]
    }
  ],
  "max_tokens": 64
}
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}