Zum Hauptinhalt springen
POST
/
v1
/
messages
curl -X POST "https://api.lemondata.cc/v1/messages" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 1024,
    "system": "You are a helpful assistant.",
    "messages": [
      {"role": "user", "content": "Hello, Claude!"}
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! How can I help you today?"
    }
  ],
  "model": "claude-sonnet-4-5",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 15,
    "output_tokens": 10
  }
}

Übersicht

Dieser Endpunkt bietet native Kompatibilität mit der Anthropic Messages API. Verwenden Sie diesen für Claude-Modelle mit Funktionen wie Extended Thinking.
Basis-URL für das Anthropic SDK: https://api.lemondata.cc (kein /v1 Suffix)

Request-Header

x-api-key
string
erforderlich
Ihr LemonData API-Key. Alternative zum Bearer-Token.
anthropic-version
string
erforderlich
Anthropic API-Version. Verwenden Sie 2023-06-01.

Request-Body

model
string
erforderlich
Claude-Modell-ID (z. B. claude-sonnet-4-5).
messages
array
erforderlich
Array von Nachrichtenobjekten mit role und content.
max_tokens
integer
erforderlich
Maximale Anzahl an zu generierenden Tokens.
system
string
System-Prompt (getrennt vom messages-Array).
temperature
number
Standard:"1"
Sampling-Temperatur (0-1).
stream
boolean
Standard:"false"
Streaming-Antworten aktivieren.
thinking
object
Konfiguration für Extended Thinking (Claude Opus 4.5).
  • type (string): "enabled" zum Aktivieren
  • budget_tokens (integer): Token-Budget für das Thinking
tools
array
Verfügbare Tools für das Modell.
tool_choice
object
Wie das Modell Tools verwenden soll. Optionen: auto, any, tool (spezifisches Tool).
top_p
number
Nucleus-Sampling-Parameter. Verwenden Sie entweder temperature oder top_p, nicht beides.
top_k
integer
Nur aus den Top-K-Optionen für jedes Token sampeln.
stop_sequences
array
Benutzerdefinierte Stop-Sequenzen, die das Modell veranlassen, die Generierung zu beenden.
metadata
object
Metadaten, die der Anfrage zu Tracking-Zwecken beigefügt werden.

Response

id
string
Eindeutige Nachrichten-ID.
type
string
Immer message.
role
string
Immer assistant.
content
array
Array von Inhaltsblöcken (text, thinking, tool_use).
model
string
Verwendetes Modell.
stop_reason
string
Grund, warum die Generierung gestoppt wurde (end_turn, max_tokens, tool_use).
usage
object
Token-Verbrauch mit input_tokens und output_tokens.
curl -X POST "https://api.lemondata.cc/v1/messages" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 1024,
    "system": "You are a helpful assistant.",
    "messages": [
      {"role": "user", "content": "Hello, Claude!"}
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! How can I help you today?"
    }
  ],
  "model": "claude-sonnet-4-5",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 15,
    "output_tokens": 10
  }
}

Beispiel für Extended Thinking

message = client.messages.create(
    model="claude-opus-4-5",
    max_tokens=16000,
    thinking={
        "type": "enabled",
        "budget_tokens": 10000
    },
    messages=[{"role": "user", "content": "Solve this math problem..."}]
)

for block in message.content:
    if block.type == "thinking":
        print(f"Thinking: {block.thinking}")
    elif block.type == "text":
        print(f"Response: {block.text}")