Esta guía está dirigida a usuarios de OpenClaw autoalojado que quieren conectar LemonData como provider de IA.
Resumen
En las versiones actuales de OpenClaw, la forma recomendada de conectar LemonData es mediantemodels.providers.
Si solo quieres empezar rápido, con lemondata basta. Añade los demás providers solo cuando necesites Responses API, Claude nativo, Gemini nativo o MiniMax nativo.
| Provider | api de OpenClaw | Ideal para | baseUrl |
|---|---|---|---|
lemondata | openai-completions | GPT, DeepSeek, Qwen y la mayoría de llamadas compatibles con OpenAI | https://api.lemondata.cc/v1 |
lemondata-responses | openai-responses | Flujos de OpenAI Responses que esperan semántica de /v1/responses | https://api.lemondata.cc/v1 |
lemondata-claude | anthropic-messages | API nativa Messages de Claude | https://api.lemondata.cc |
lemondata-gemini | google-generative-ai | Formato nativo de Gemini | https://api.lemondata.cc |
lemondata-minimax | anthropic-messages | Ruta nativa de MiniMax | https://api.lemondata.cc |
Requisitos previos
- Una instancia de OpenClaw autoalojada
- Una LemonData API Key — obtenla aquí
Configuración
Edita tu configuración de OpenClaw:- Autoalojado:
~/.openclaw/openclaw.json
models.providers:
Los 5 providers usan la misma API Key. Solo necesitas una cuenta de LemonData.
Los arreglos
models de arriba muestran solo ejemplos habituales. Puedes añadir más model IDs dentro de cada provider cuando lo necesites.Uso de modelos
OpenClaw sigue usando el formatoprovider/model para referenciar modelos:
Ejemplos de modelos
| Provider | Referencia del modelo | Descripción |
|---|---|---|
lemondata | lemondata/gpt-4o | Ruta compatible con OpenAI |
lemondata | lemondata/deepseek-r1 | Modelo de razonamiento DeepSeek |
lemondata-responses | lemondata-responses/gpt-4o | Ruta de Responses API |
lemondata-claude | lemondata-claude/claude-sonnet-4-6 | Ruta nativa Messages de Claude |
lemondata-gemini | lemondata-gemini/gemini-2.5-flash | Ruta nativa de Gemini |
lemondata-minimax | lemondata-minimax/minimax-m1 | Ruta nativa de MiniMax |
Cuándo usar cada provider
lemondata: opción por defecto para la mayoría de casos generales de chat y agents.lemondata-responses: úsalo cuando tu flujo en OpenClaw dependa explícitamente de la semántica de OpenAI Responses.lemondata-claude: úsalo cuando quieras el comportamiento nativo de Claude Messages.lemondata-gemini: úsalo cuando quieras formato nativo de Gemini o integraciones ya pensadas para Gemini.lemondata-minimax: úsalo cuando quieras MiniMax por su ruta nativa.
lemondata/gemini-* por la ruta compatible con OpenAI.
Errores comunes
Seguir usando el antiguo arreglo providers en el nivel superior
Seguir usando el antiguo arreglo providers en el nivel superior
La documentación actual de OpenClaw usa
models.providers. Si mantienes el antiguo formato providers en el nivel superior, OpenClaw puede ignorar la configuración o no resolver bien los prefijos de provider.Olvidar /v1 en lemondata-responses
Olvidar /v1 en lemondata-responses
openai-responses apunta a la ruta /v1/responses de LemonData, así que lemondata-responses debe usar https://api.lemondata.cc/v1.Añadir /v1 a lemondata-claude, lemondata-gemini o lemondata-minimax
Añadir /v1 a lemondata-claude, lemondata-gemini o lemondata-minimax
anthropic-messages y google-generative-ai deben usar https://api.lemondata.cc sin /v1. Si agregas /v1, pueden generarse rutas de solicitud incorrectas.¿OpenClaw sigue soportando Gemini nativo?
¿OpenClaw sigue soportando Gemini nativo?
Sí. La documentación actual de OpenClaw sigue incluyendo el provider integrado
google y también admite providers personalizados con api: "google-generative-ai". Por eso lemondata-gemini sigue siendo una ruta nativa válida de Gemini para usuarios de OpenClaw.Verificar la configuración
Después de guardar la configuración, reinicia tu instancia de OpenClaw y prueba con un mensaje simple. Si ves una respuesta, el provider está configurado correctamente.Siguientes pasos
Una vez conectado OpenClaw, estas guías te ayudarán a usar LemonData mejor:- API Formats — entiende las diferencias entre OpenAI, Responses, Anthropic y Gemini
- IDE / SDK Compatibility — revisa cuándo conviene usar
/v1/responses - Error Handling — errores comunes y cómo recuperarte
- Resumen de modelos — revisa los model IDs disponibles antes de conectarlos a tus agents