Aperçu
Cet endpoint offre une compatibilité native avec l’API Anthropic Messages. Utilisez-le pour les modèles Claude avec des fonctionnalités telles que la réflexion étendue (extended thinking).
URL de base pour le SDK Anthropic : https://api.lemondata.cc (pas de suffixe /v1)
En-têtes de requête
Votre clé API LemonData. Alternative au token Bearer.
Version de l’API Anthropic. Utilisez 2023-06-01.
Corps de la requête
ID du modèle Claude (ex: claude-sonnet-4-5).
Tableau d’objets de message avec role et content.
Nombre maximum de tokens à générer.
Prompt système (séparé du tableau messages).
Température d’échantillonnage (0-1).
Activer les réponses en streaming.
Configuration de la réflexion étendue (Claude Opus 4.5).
type (string) : "enabled" pour activer
budget_tokens (integer) : Budget de tokens pour la réflexion
Outils disponibles pour le modèle.
Comment le modèle doit utiliser les outils. Options : auto, any, tool (outil spécifique).
Paramètre d’échantillonnage nucleus. Utilisez soit temperature soit top_p, mais pas les deux.
Échantillonner uniquement parmi les K meilleures options pour chaque token.
Séquences d’arrêt personnalisées qui forceront le modèle à arrêter la génération.
Métadonnées à joindre à la requête à des fins de suivi.
Réponse
Identifiant unique du message.
Tableau de blocs de contenu (text, thinking, tool_use).
Raison pour laquelle la génération s’est arrêtée (end_turn, max_tokens, tool_use).
Utilisation des tokens avec input_tokens et output_tokens.
cURL
Python
JavaScript
Go
PHP
curl -X POST "https://api.lemondata.cc/v1/messages" \
-H "x-api-key: sk-your-api-key" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-5",
"max_tokens": 1024,
"system": "You are a helpful assistant.",
"messages": [
{"role": "user", "content": "Hello, Claude!"}
]
}'
{
"id" : "msg_abc123" ,
"type" : "message" ,
"role" : "assistant" ,
"content" : [
{
"type" : "text" ,
"text" : "Hello! How can I help you today?"
}
],
"model" : "claude-sonnet-4-5" ,
"stop_reason" : "end_turn" ,
"usage" : {
"input_tokens" : 15 ,
"output_tokens" : 10
}
}
Exemple de réflexion étendue (Extended Thinking)
message = client.messages.create(
model = "claude-opus-4-5" ,
max_tokens = 16000 ,
thinking = {
"type" : "enabled" ,
"budget_tokens" : 10000
},
messages = [{ "role" : "user" , "content" : "Solve this math problem..." }]
)
for block in message.content:
if block.type == "thinking" :
print ( f "Thinking: { block.thinking } " )
elif block.type == "text" :
print ( f "Response: { block.text } " )