Passer au contenu principal
POST
/
v1
/
messages
curl -X POST "https://api.lemondata.cc/v1/messages" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 1024,
    "system": "You are a helpful assistant.",
    "messages": [
      {"role": "user", "content": "Hello, Claude!"}
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! How can I help you today?"
    }
  ],
  "model": "claude-sonnet-4-5",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 15,
    "output_tokens": 10
  }
}

Aperçu

Cet endpoint offre une compatibilité native avec l’API Anthropic Messages. Utilisez-le pour les modèles Claude avec des fonctionnalités telles que la réflexion étendue (extended thinking).
URL de base pour le SDK Anthropic : https://api.lemondata.cc (pas de suffixe /v1)

En-têtes de requête

x-api-key
string
requis
Votre clé API LemonData. Alternative au token Bearer.
anthropic-version
string
requis
Version de l’API Anthropic. Utilisez 2023-06-01.

Corps de la requête

model
string
requis
ID du modèle Claude (ex: claude-sonnet-4-5).
messages
array
requis
Tableau d’objets de message avec role et content.
max_tokens
integer
requis
Nombre maximum de tokens à générer.
system
string
Prompt système (séparé du tableau messages).
temperature
number
défaut:"1"
Température d’échantillonnage (0-1).
stream
boolean
défaut:"false"
Activer les réponses en streaming.
thinking
object
Configuration de la réflexion étendue (Claude Opus 4.5).
  • type (string) : "enabled" pour activer
  • budget_tokens (integer) : Budget de tokens pour la réflexion
tools
array
Outils disponibles pour le modèle.
tool_choice
object
Comment le modèle doit utiliser les outils. Options : auto, any, tool (outil spécifique).
top_p
number
Paramètre d’échantillonnage nucleus. Utilisez soit temperature soit top_p, mais pas les deux.
top_k
integer
Échantillonner uniquement parmi les K meilleures options pour chaque token.
stop_sequences
array
Séquences d’arrêt personnalisées qui forceront le modèle à arrêter la génération.
metadata
object
Métadonnées à joindre à la requête à des fins de suivi.

Réponse

id
string
Identifiant unique du message.
type
string
Toujours message.
role
string
Toujours assistant.
content
array
Tableau de blocs de contenu (text, thinking, tool_use).
model
string
Modèle utilisé.
stop_reason
string
Raison pour laquelle la génération s’est arrêtée (end_turn, max_tokens, tool_use).
usage
object
Utilisation des tokens avec input_tokens et output_tokens.
curl -X POST "https://api.lemondata.cc/v1/messages" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 1024,
    "system": "You are a helpful assistant.",
    "messages": [
      {"role": "user", "content": "Hello, Claude!"}
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! How can I help you today?"
    }
  ],
  "model": "claude-sonnet-4-5",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 15,
    "output_tokens": 10
  }
}

Exemple de réflexion étendue (Extended Thinking)

message = client.messages.create(
    model="claude-opus-4-5",
    max_tokens=16000,
    thinking={
        "type": "enabled",
        "budget_tokens": 10000
    },
    messages=[{"role": "user", "content": "Solve this math problem..."}]
)

for block in message.content:
    if block.type == "thinking":
        print(f"Thinking: {block.thinking}")
    elif block.type == "text":
        print(f"Response: {block.text}")