Passer au contenu principal

Request Body

model
string
requis
ID du modèle à utiliser. Voir Modèles pour les options disponibles.
messages
array
requis
Une liste de messages constituant la conversation.Chaque objet message contient :
  • role (string) : system, user, ou assistant
  • content (string | array) : Le contenu du message
Lorsque content est un tableau, LemonData prend en charge des blocs multimodaux structurés pour les modèles compatibles :
  • text: { "type": "text", "text": "..." }
  • image: { "type": "image_url", "image_url": { "url": "https://..." } }
  • video: { "type": "video_url", "video_url": { "url": "https://..." } }
  • audio: { "type": "audio_url", "audio_url": { "url": "https://..." } }
Pour le trafic multimodal en production, privilégiez des URLs publiques en https. LemonData traduira ces blocs médias dans la forme de requête spécifique au fournisseur requise par le modèle physique routé.
temperature
number
défaut:"1"
Température d’échantillonnage entre 0 et 2. Des valeurs plus élevées rendent la sortie plus aléatoire.
max_tokens
integer
Nombre maximal de tokens à générer.
stream
boolean
défaut:"false"
Si true, des deltas de message partiels seront envoyés comme événements SSE.
stream_options
object
Options pour le streaming. Définissez include_usage: true pour recevoir l’utilisation des tokens dans les fragments de stream.
top_p
number
défaut:"1"
Paramètre de sampling nucleus. Nous recommandons de modifier celui-ci ou la température, pas les deux.
frequency_penalty
number
défaut:"0"
Nombre entre -2.0 et 2.0. Les valeurs positives pénalisent les tokens répétés.
presence_penalty
number
défaut:"0"
Nombre entre -2.0 et 2.0. Les valeurs positives pénalisent les tokens déjà présents dans le texte.
stop
string | array
Jusqu’à 4 séquences où l’API arrêtera de générer des tokens.
tools
array
Une liste d’outils que le modèle peut appeler (appel de fonctions).
tool_choice
string | object
Contrôle la manière dont le modèle utilise les outils. Options : auto, none, required, ou un objet outil spécifique.
parallel_tool_calls
boolean
défaut:"true"
Permet d’activer l’appel de fonctions en parallèle. Définir sur false pour appeler les fonctions séquentiellement.
max_completion_tokens
integer
Nombre maximal de tokens pour la complétion. Alternative à max_tokens, utile pour les familles de modèles plus récentes activées pour le raisonnement.
reasoning_effort
string
Effort de raisonnement pour les modèles activés pour le raisonnement. Options : low, medium, high.
seed
integer
Seed aléatoire pour un échantillonnage déterministe.
n
integer
défaut:"1"
Nombre de complétions à générer (1-128).
logprobs
boolean
Indique s’il faut retourner les log-probabilités.
top_logprobs
integer
Nombre de log-probabilités les plus élevées à retourner (0-20). Nécessite logprobs: true.
top_k
integer
Paramètre Top-K sampling (pour les modèles Anthropic/Gemini).
response_format
object
Spécification du format de réponse. Utiliser {"type": "json_object"} pour le mode JSON. Considérez {"type": "json_schema", "json_schema": {...}} comme une approche best-effort qui dépend du modèle sélectionné et du comportement routé.
logit_bias
object
Modifier la probabilité d’apparition de tokens spécifiés. Mappez les IDs de tokens (comme des chaînes) à des valeurs de biais entre -100 et 100.
user
string
Identifiant unique représentant votre utilisateur final pour la surveillance des abus.
cache_control
object
Options de contrôle du cache LemonData.
  • type (string) : Stratégie de cache - default, no_cache, no_store, response_only, semantic_only
  • max_age (integer) : TTL du cache en secondes (max 86400)

Response

id
string
Identifiant unique de la complétion.
object
string
Toujours chat.completion.
created
integer
Timestamp Unix du moment où la complétion a été créée.
model
string
Le modèle utilisé pour la complétion.
choices
array
Liste des choix de complétion.Chaque choix contient :
  • index (integer) : Index du choix
  • message (object) : Le message généré
  • finish_reason (string) : Pourquoi le modèle s’est arrêté (stop, length, tool_calls)
usage
object
Statistiques d’utilisation des tokens.
  • prompt_tokens (integer) : Tokens dans le prompt
  • completion_tokens (integer) : Tokens dans la complétion
  • total_tokens (integer) : Total des tokens utilisés
curl -X POST "https://api.lemondata.cc/v1/chat/completions" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Hello!"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'

Multimodal Example

{
  "model": "gemini-2.5-pro",
  "messages": [
    {
      "role": "user",
      "content": [
        { "type": "text", "text": "Describe this video briefly." },
        { "type": "video_url", "video_url": { "url": "https://example.com/demo.mp4" } }
      ]
    }
  ],
  "max_tokens": 64
}
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1706000000,
  "model": "gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I help you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 20,
    "completion_tokens": 9,
    "total_tokens": 29
  }
}