Saltar para o conteúdo principal
Este guia é para usuários de OpenClaw self-hosted que querem conectar o LemonData como provider de IA.
Se você preferir uma solução hospedada, crie uma instância LemonClaw. O LemonData já vem configurado por padrão, então você pode começar direto pela WebUI.

Visão geral

Nas versões atuais do OpenClaw, a forma recomendada de conectar o LemonData é usando models.providers. Se você só quer começar rápido, lemondata sozinho já basta. Adicione os outros providers apenas quando precisar de Responses API, Claude nativo, Gemini nativo ou MiniMax nativo.
Providerapi do OpenClawIdeal parabaseUrl
lemondataopenai-completionsGPT, DeepSeek, Qwen e a maioria das chamadas compatíveis com OpenAIhttps://api.lemondata.cc/v1
lemondata-responsesopenai-responsesFluxos OpenAI Responses que esperam a semântica de /v1/responseshttps://api.lemondata.cc/v1
lemondata-claudeanthropic-messagesAPI Messages nativa do Claudehttps://api.lemondata.cc
lemondata-geminigoogle-generative-aiFormato nativo da API Geminihttps://api.lemondata.cc
lemondata-minimaxanthropic-messagesRota nativa do MiniMaxhttps://api.lemondata.cc
Use o sufixo /v1 apenas com openai-completions e openai-responses.Providers nativos como anthropic-messages e google-generative-ai devem usar https://api.lemondata.cc sem /v1; caso contrário, o OpenClaw pode montar o caminho upstream errado.

Pré-requisitos

  • Uma instância OpenClaw self-hosted
  • Uma LemonData API Key — obtenha aqui

Configuração

Edite sua configuração do OpenClaw:
  • Self-hosted: ~/.openclaw/openclaw.json
Adicione os providers do LemonData dentro de models.providers:
{
  agents: {
    defaults: {
      model: {
        primary: "lemondata-claude/claude-sonnet-4-6"
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      lemondata: {
        api: "openai-completions",
        baseUrl: "https://api.lemondata.cc/v1",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "gpt-4o", name: "GPT-4o" },
          { id: "deepseek-r1", name: "DeepSeek R1" },
          { id: "qwen3-32b", name: "Qwen 3 32B" }
        ]
      },
      "lemondata-responses": {
        api: "openai-responses",
        baseUrl: "https://api.lemondata.cc/v1",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "gpt-4o", name: "GPT-4o (Responses)" },
          { id: "gpt-5.2", name: "GPT-5.2 (Responses)" }
        ]
      },
      "lemondata-claude": {
        api: "anthropic-messages",
        baseUrl: "https://api.lemondata.cc",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "claude-sonnet-4-6", name: "Claude Sonnet 4.6" },
          { id: "claude-opus-4-6", name: "Claude Opus 4.6" }
        ]
      },
      "lemondata-gemini": {
        api: "google-generative-ai",
        baseUrl: "https://api.lemondata.cc",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "gemini-2.5-flash", name: "Gemini 2.5 Flash" },
          { id: "gemini-3-flash-preview", name: "Gemini 3 Flash Preview" }
        ]
      },
      "lemondata-minimax": {
        api: "anthropic-messages",
        baseUrl: "https://api.lemondata.cc",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "minimax-m1", name: "MiniMax M1" }
        ]
      }
    }
  }
}
Os 5 providers usam a mesma API Key. Você só precisa de uma conta LemonData.
As listas models acima mostram apenas exemplos comuns. Adicione mais model IDs em cada provider conforme necessário.

Uso de modelos

O OpenClaw continua usando o formato provider/model para referenciar modelos:
{
  agents: {
    defaults: {
      model: {
        primary: "lemondata-gemini/gemini-2.5-flash"
      }
    }
  }
}

Exemplos de modelos

ProviderReferência do modeloDescrição
lemondatalemondata/gpt-4oRota compatível com OpenAI
lemondatalemondata/deepseek-r1Modelo de raciocínio DeepSeek
lemondata-responseslemondata-responses/gpt-4oRota da Responses API
lemondata-claudelemondata-claude/claude-sonnet-4-6Rota nativa Claude Messages
lemondata-geminilemondata-gemini/gemini-2.5-flashRota nativa Gemini
lemondata-minimaxlemondata-minimax/minimax-m1Rota nativa MiniMax
Veja todos os modelos disponíveis em lemondata.cc/models.

Quando usar cada provider

  • lemondata: escolha padrão para a maioria dos casos gerais de chat e agents.
  • lemondata-responses: use quando seu fluxo no OpenClaw depender explicitamente da semântica do OpenAI Responses.
  • lemondata-claude: use quando quiser o comportamento nativo do Claude Messages.
  • lemondata-gemini: use quando quiser formato nativo do Gemini ou integrações já pensadas para Gemini.
  • lemondata-minimax: use quando quiser o MiniMax na rota nativa.
Se você não precisar do comportamento nativo do Gemini, ainda pode chamar modelos Gemini usando lemondata/gemini-* pela rota compatível com OpenAI.

Erros comuns

A documentação atual do OpenClaw usa models.providers. Se você mantiver o formato antigo com providers no nível superior, o OpenClaw pode ignorar a configuração ou não resolver os prefixos do provider como esperado.
openai-responses aponta para a rota /v1/responses do LemonData, então lemondata-responses precisa usar https://api.lemondata.cc/v1.
anthropic-messages e google-generative-ai devem usar https://api.lemondata.cc sem /v1. Adicionar /v1 pode gerar caminhos de requisição incorretos.
Sim. A documentação atual do OpenClaw ainda inclui o provider embutido google e também aceita providers personalizados com api: "google-generative-ai". Por isso, lemondata-gemini continua sendo uma rota Gemini nativa válida para usuários do OpenClaw.

Verificar a configuração

Depois de salvar a configuração, reinicie sua instância do OpenClaw e teste com uma mensagem simples. Se você receber uma resposta, o provider está configurado corretamente.
# Self-hosted: reiniciar o serviço
systemctl --user restart openclaw    # Linux
launchctl stop cc.lemondata.openclaw && launchctl start cc.lemondata.openclaw  # macOS

Próximos passos

Depois de conectar o OpenClaw, estes guias ajudam você a usar melhor o LemonData: