Documentation Index
Fetch the complete documentation index at: https://docs.lemondata.cc/llms.txt
Use this file to discover all available pages before exploring further.
Esta guía es para usuarios de OpenClaw autohospedado que desean conectar LemonData como su proveedor de IA.
Descripción general
Para las versiones actuales de OpenClaw, el enfoque recomendado es configurar LemonData a través demodels.providers.
Si solo quieres comenzar rápidamente, configurar únicamente lemondata es suficiente. Añade los otros providers solo cuando necesites explícitamente el comportamiento de Responses API, Claude nativo, Gemini nativo o MiniMax nativo.
| Proveedor | OpenClaw api | Ideal para | baseUrl |
|---|---|---|---|
lemondata | openai-completions | GPT, DeepSeek, Qwen y la mayoría de las llamadas compatibles con OpenAI | https://api.lemondata.cc/v1 |
lemondata-responses | openai-responses | Flujos de trabajo de OpenAI Responses que esperan la semántica de /v1/responses | https://api.lemondata.cc/v1 |
lemondata-claude | anthropic-messages | API nativa de Claude Messages | https://api.lemondata.cc |
lemondata-gemini | google-generative-ai | Formato nativo de la API de Gemini | https://api.lemondata.cc |
lemondata-minimax | anthropic-messages | Enrutamiento nativo de MiniMax | https://api.lemondata.cc |
Requisitos previos
- Una instancia de OpenClaw autohospedada
- Una LemonData API Key — Get one here
Configuración
Edita tu configuración de OpenClaw:- Autohospedado:
~/.openclaw/openclaw.json
models.providers:
Los 5 providers usan la misma API Key. Solo necesitas una cuenta de LemonData.
Los arrays
models de arriba solo muestran ejemplos comunes. Añade más IDs de modelos a cada provider según sea necesario.Uso de modelos
OpenClaw sigue referenciando modelos con el formatoprovider/model:
Ejemplos de modelos
| Proveedor | Referencia del modelo | Descripción |
|---|---|---|
lemondata | lemondata/gpt-4o | Ruta compatible con OpenAI |
lemondata | lemondata/deepseek-r1 | Modelo de razonamiento DeepSeek |
lemondata-responses | lemondata-responses/gpt-4o | Ruta de Responses API |
lemondata-claude | lemondata-claude/claude-sonnet-4-6 | Ruta nativa de Claude Messages |
lemondata-gemini | lemondata-gemini/gemini-2.5-flash | Ruta nativa de Gemini |
lemondata-minimax | lemondata-minimax/minimax-m1 | Ruta nativa de MiniMax |
Cuándo usar cada proveedor
lemondata: elección predeterminada para la mayoría de los casos de uso generales de agentes y chat.lemondata-responses: úsalo cuando tu flujo de trabajo en OpenClaw dependa explícitamente de la semántica de OpenAI Responses.lemondata-claude: úsalo cuando quieras el comportamiento nativo de Messages de Claude.lemondata-gemini: úsalo cuando necesites el formato de request/response nativo de Gemini o integraciones existentes al estilo Gemini.lemondata-minimax: úsalo cuando quieras MiniMax en su ruta nativa.
lemondata/gemini-* en la ruta compatible con OpenAI.
Errores comunes
Aún usando el antiguo array top-level providers
Aún usando el antiguo array top-level providers
La documentación actual de OpenClaw usa
models.providers. Si mantienes el formato anterior del array top-level providers, OpenClaw puede ignorar la configuración o no resolver los prefijos de provider como se espera.Olvidar /v1 en lemondata-responses
Olvidar /v1 en lemondata-responses
openai-responses se mapea a la ruta /v1/responses de LemonData, por lo que lemondata-responses debe usar https://api.lemondata.cc/v1.Agregar /v1 a lemondata-claude, lemondata-gemini o lemondata-minimax
Agregar /v1 a lemondata-claude, lemondata-gemini o lemondata-minimax
anthropic-messages y google-generative-ai deben usar https://api.lemondata.cc sin /v1. Agregar /v1 puede producir rutas de solicitud incorrectas.¿OpenClaw aún soporta Gemini nativo?
¿OpenClaw aún soporta Gemini nativo?
Sí. La documentación actual de OpenClaw todavía incluye el provider integrado
google y también soporta providers personalizados usando api: "google-generative-ai". Así que lemondata-gemini sigue siendo una ruta Gemini nativa válida para los usuarios de OpenClaw.Verificar la configuración
Después de guardar la configuración, reinicia tu instancia de OpenClaw y prueba con un mensaje simple. Si ves una respuesta, el provider está configurado correctamente.Próximos pasos
Una vez que OpenClaw esté conectado, estas guías te ayudarán a usar LemonData de forma más eficaz:- API Formats — comprende las diferencias entre las rutas OpenAI, Responses, Anthropic y Gemini
- IDE / SDK Compatibility — consulta cuándo
/v1/responseses la mejor opción - Error Handling — aprende modos de fallo comunes y patrones de recuperación
- Models Overview — explora los IDs de modelos antes de integrarlos en los agents