Este guia é para usuários de OpenClaw self-hosted que querem conectar o LemonData como provider de IA.
Visão geral
Nas versões atuais do OpenClaw, a forma recomendada de conectar o LemonData é usandomodels.providers.
Se você só quer começar rápido, lemondata sozinho já basta. Adicione os outros providers apenas quando precisar de Responses API, Claude nativo, Gemini nativo ou MiniMax nativo.
| Provider | api do OpenClaw | Ideal para | baseUrl |
|---|---|---|---|
lemondata | openai-completions | GPT, DeepSeek, Qwen e a maioria das chamadas compatíveis com OpenAI | https://api.lemondata.cc/v1 |
lemondata-responses | openai-responses | Fluxos OpenAI Responses que esperam a semântica de /v1/responses | https://api.lemondata.cc/v1 |
lemondata-claude | anthropic-messages | API Messages nativa do Claude | https://api.lemondata.cc |
lemondata-gemini | google-generative-ai | Formato nativo da API Gemini | https://api.lemondata.cc |
lemondata-minimax | anthropic-messages | Rota nativa do MiniMax | https://api.lemondata.cc |
Pré-requisitos
- Uma instância OpenClaw self-hosted
- Uma LemonData API Key — obtenha aqui
Configuração
Edite sua configuração do OpenClaw:- Self-hosted:
~/.openclaw/openclaw.json
models.providers:
Os 5 providers usam a mesma API Key. Você só precisa de uma conta LemonData.
As listas
models acima mostram apenas exemplos comuns. Adicione mais model IDs em cada provider conforme necessário.Uso de modelos
O OpenClaw continua usando o formatoprovider/model para referenciar modelos:
Exemplos de modelos
| Provider | Referência do modelo | Descrição |
|---|---|---|
lemondata | lemondata/gpt-4o | Rota compatível com OpenAI |
lemondata | lemondata/deepseek-r1 | Modelo de raciocínio DeepSeek |
lemondata-responses | lemondata-responses/gpt-4o | Rota da Responses API |
lemondata-claude | lemondata-claude/claude-sonnet-4-6 | Rota nativa Claude Messages |
lemondata-gemini | lemondata-gemini/gemini-2.5-flash | Rota nativa Gemini |
lemondata-minimax | lemondata-minimax/minimax-m1 | Rota nativa MiniMax |
Quando usar cada provider
lemondata: escolha padrão para a maioria dos casos gerais de chat e agents.lemondata-responses: use quando seu fluxo no OpenClaw depender explicitamente da semântica do OpenAI Responses.lemondata-claude: use quando quiser o comportamento nativo do Claude Messages.lemondata-gemini: use quando quiser formato nativo do Gemini ou integrações já pensadas para Gemini.lemondata-minimax: use quando quiser o MiniMax na rota nativa.
lemondata/gemini-* pela rota compatível com OpenAI.
Erros comuns
Continuar usando o antigo array providers no nível superior
Continuar usando o antigo array providers no nível superior
A documentação atual do OpenClaw usa
models.providers. Se você mantiver o formato antigo com providers no nível superior, o OpenClaw pode ignorar a configuração ou não resolver os prefixos do provider como esperado.Esquecer /v1 em lemondata-responses
Esquecer /v1 em lemondata-responses
openai-responses aponta para a rota /v1/responses do LemonData, então lemondata-responses precisa usar https://api.lemondata.cc/v1.Adicionar /v1 a lemondata-claude, lemondata-gemini ou lemondata-minimax
Adicionar /v1 a lemondata-claude, lemondata-gemini ou lemondata-minimax
anthropic-messages e google-generative-ai devem usar https://api.lemondata.cc sem /v1. Adicionar /v1 pode gerar caminhos de requisição incorretos.O OpenClaw ainda suporta Gemini nativo?
O OpenClaw ainda suporta Gemini nativo?
Sim. A documentação atual do OpenClaw ainda inclui o provider embutido
google e também aceita providers personalizados com api: "google-generative-ai". Por isso, lemondata-gemini continua sendo uma rota Gemini nativa válida para usuários do OpenClaw.Verificar a configuração
Depois de salvar a configuração, reinicie sua instância do OpenClaw e teste com uma mensagem simples. Se você receber uma resposta, o provider está configurado corretamente.Próximos passos
Depois de conectar o OpenClaw, estes guias ajudam você a usar melhor o LemonData:- API Formats — entenda as diferenças entre OpenAI, Responses, Anthropic e Gemini
- IDE / SDK Compatibility — veja quando
/v1/responsesfaz mais sentido - Error Handling — aprenda falhas comuns e formas de recuperação
- Visão geral dos modelos — confira os model IDs disponíveis antes de conectá-los aos seus agents