Saltar para o conteúdo principal
POST
/
v1
/
messages
curl -X POST "https://api.lemondata.cc/v1/messages" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 1024,
    "system": "You are a helpful assistant.",
    "messages": [
      {"role": "user", "content": "Hello, Claude!"}
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! How can I help you today?"
    }
  ],
  "model": "claude-sonnet-4-5",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 15,
    "output_tokens": 10
  }
}

Visão Geral

Este endpoint fornece compatibilidade nativa com a Anthropic Messages API. Use-o para modelos Claude com recursos como pensamento estendido (extended thinking).
URL base para o Anthropic SDK: https://api.lemondata.cc (sem o sufixo /v1)

Cabeçalhos da Requisição

x-api-key
string
obrigatório
Sua chave de API LemonData. Alternativa ao token Bearer.
anthropic-version
string
obrigatório
Versão da API Anthropic. Use 2023-06-01.

Corpo da Requisição

model
string
obrigatório
ID do modelo Claude (ex: claude-sonnet-4-5).
messages
array
obrigatório
Array de objetos de mensagem com role e content.
max_tokens
integer
obrigatório
Máximo de tokens a serem gerados.
system
string
Prompt de sistema (separado do array de mensagens).
temperature
number
padrão:"1"
Temperatura de amostragem (0-1).
stream
boolean
padrão:"false"
Habilitar respostas via streaming.
thinking
object
Configuração de pensamento estendido (Claude Opus 4.5).
  • type (string): "enabled" para habilitar
  • budget_tokens (integer): Orçamento de tokens para o pensamento
tools
array
Ferramentas disponíveis para o modelo.
tool_choice
object
Como o modelo deve usar as ferramentas. Opções: auto, any, tool (ferramenta específica).
top_p
number
Parâmetro de amostragem de núcleo (nucleus sampling). Use temperature ou top_p, não ambos.
top_k
integer
Amostra apenas das principais K opções para cada token.
stop_sequences
array
Sequências de parada personalizadas que farão o modelo interromper a geração.
metadata
object
Metadados para anexar à requisição para fins de rastreamento.

Resposta

id
string
Identificador único da mensagem.
type
string
Sempre message.
role
string
Sempre assistant.
content
array
Array de blocos de conteúdo (text, thinking, tool_use).
model
string
Modelo utilizado.
stop_reason
string
Por que a geração foi interrompida (end_turn, max_tokens, tool_use).
usage
object
Uso de tokens com input_tokens e output_tokens.
curl -X POST "https://api.lemondata.cc/v1/messages" \
  -H "x-api-key: sk-your-api-key" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5",
    "max_tokens": 1024,
    "system": "You are a helpful assistant.",
    "messages": [
      {"role": "user", "content": "Hello, Claude!"}
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! How can I help you today?"
    }
  ],
  "model": "claude-sonnet-4-5",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 15,
    "output_tokens": 10
  }
}

Exemplo de Pensamento Estendido

message = client.messages.create(
    model="claude-opus-4-5",
    max_tokens=16000,
    thinking={
        "type": "enabled",
        "budget_tokens": 10000
    },
    messages=[{"role": "user", "content": "Solve this math problem..."}]
)

for block in message.content:
    if block.type == "thinking":
        print(f"Thinking: {block.thinking}")
    elif block.type == "text":
        print(f"Response: {block.text}")