Passer au contenu principal

Documentation Index

Fetch the complete documentation index at: https://docs.lemondata.cc/llms.txt

Use this file to discover all available pages before exploring further.

Ce guide s’adresse aux utilisateurs d’OpenClaw auto-hébergé qui souhaitent connecter LemonData comme fournisseur IA.

Aperçu

Pour les versions actuelles d’OpenClaw, l’approche recommandée est de configurer LemonData via models.providers. Si vous souhaitez simplement démarrer rapidement, la configuration de lemondata seule suffit. Ajoutez les autres fournisseurs uniquement lorsque vous avez explicitement besoin du comportement Responses API, Claude natif, Gemini natif, ou MiniMax natif.
ProviderOpenClaw apiIdéal pourbaseUrl
lemondataopenai-completionsGPT, DeepSeek, Qwen et la plupart des appels compatibles OpenAIhttps://api.lemondata.cc/v1
lemondata-responsesopenai-responsesWorkflows OpenAI Responses qui s’attendent à la sémantique /v1/responseshttps://api.lemondata.cc/v1
lemondata-claudeanthropic-messagesAPI Messages native de Claudehttps://api.lemondata.cc
lemondata-geminigoogle-generative-aiFormat API Gemini natifhttps://api.lemondata.cc
lemondata-minimaxanthropic-messagesRoutage MiniMax natifhttps://api.lemondata.cc
N’utilisez le suffixe /v1 que pour openai-completions et openai-responses.Les fournisseurs natifs tels que anthropic-messages et google-generative-ai doivent utiliser https://api.lemondata.cc sans /v1, sinon OpenClaw peut construire un chemin upstream incorrect.

Prérequis

  • Une instance OpenClaw auto-hébergée
  • Une clé API LemonData — Get one here

Configuration

Modifiez votre configuration OpenClaw :
  • Self-hosted : ~/.openclaw/openclaw.json
Ajoutez les fournisseurs LemonData sous models.providers :
{
  agents: {
    defaults: {
      model: {
        primary: "lemondata-claude/claude-sonnet-4-6"
      }
    }
  },
  models: {
    mode: "merge",
    providers: {
      lemondata: {
        api: "openai-completions",
        baseUrl: "https://api.lemondata.cc/v1",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "gpt-4o", name: "GPT-4o" },
          { id: "deepseek-r1", name: "DeepSeek R1" },
          { id: "qwen3-32b", name: "Qwen 3 32B" }
        ]
      },
      "lemondata-responses": {
        api: "openai-responses",
        baseUrl: "https://api.lemondata.cc/v1",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "gpt-4o", name: "GPT-4o (Responses)" },
          { id: "gpt-5.2", name: "GPT-5.2 (Responses)" }
        ]
      },
      "lemondata-claude": {
        api: "anthropic-messages",
        baseUrl: "https://api.lemondata.cc",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "claude-sonnet-4-6", name: "Claude Sonnet 4.6" },
          { id: "claude-opus-4-6", name: "Claude Opus 4.6" }
        ]
      },
      "lemondata-gemini": {
        api: "google-generative-ai",
        baseUrl: "https://api.lemondata.cc",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "gemini-2.5-flash", name: "Gemini 2.5 Flash" },
          { id: "gemini-3-flash-preview", name: "Gemini 3 Flash Preview" }
        ]
      },
      "lemondata-minimax": {
        api: "anthropic-messages",
        baseUrl: "https://api.lemondata.cc",
        apiKey: "sk-your-lemondata-key",
        models: [
          { id: "minimax-m1", name: "MiniMax M1" }
        ]
      }
    }
  }
}
Les 5 fournisseurs utilisent la même clé API. Vous n’avez besoin que d’un seul compte LemonData.
Les tableaux models ci‑dessus montrent uniquement des exemples courants. Ajoutez d’autres IDs de modèle pour chaque fournisseur selon vos besoins.

Utilisation des modèles

OpenClaw référence toujours les modèles avec le format provider/model :
{
  agents: {
    defaults: {
      model: {
        primary: "lemondata-gemini/gemini-2.5-flash"
      }
    }
  }
}

Exemples de modèles

ProviderRéférence du modèleDescription
lemondatalemondata/gpt-4oRoute compatible OpenAI
lemondatalemondata/deepseek-r1Modèle de raisonnement DeepSeek
lemondata-responseslemondata-responses/gpt-4oRoute Responses API
lemondata-claudelemondata-claude/claude-sonnet-4-6Route native Claude Messages
lemondata-geminilemondata-gemini/gemini-2.5-flashRoute native Gemini
lemondata-minimaxlemondata-minimax/minimax-m1Route native MiniMax
Parcourez tous les modèles disponibles sur lemondata.cc/models.

Quand utiliser quel fournisseur

  • lemondata : choix par défaut pour la plupart des cas d’utilisation généraux d’agents et de chat.
  • lemondata-responses : utilisez-le lorsque votre workflow OpenClaw dépend explicitement de la sémantique OpenAI Responses.
  • lemondata-claude : utilisez-le lorsque vous souhaitez le comportement Messages natif de Claude.
  • lemondata-gemini : utilisez-le lorsque vous avez besoin du format de requête/réponse natif Gemini ou pour des intégrations existantes de type Gemini.
  • lemondata-minimax : utilisez-le lorsque vous voulez MiniMax sur sa route native.
Si vous n’avez pas besoin du comportement Gemini natif, vous pouvez toujours appeler les modèles Gemini via lemondata/gemini-* sur la route compatible OpenAI.

Erreurs courantes

La documentation actuelle d’OpenClaw utilise models.providers. Si vous conservez l’ancien format du tableau providers au niveau supérieur, OpenClaw peut ignorer la configuration ou échouer à résoudre les préfixes des fournisseurs comme prévu.
openai-responses mappe vers le chemin /v1/responses de LemonData, donc lemondata-responses doit utiliser https://api.lemondata.cc/v1.
anthropic-messages et google-generative-ai doivent utiliser https://api.lemondata.cc sans /v1. L’ajout de /v1 peut produire des chemins de requête incorrects.
Oui. La documentation actuelle d’OpenClaw inclut toujours le fournisseur intégré google et prend également en charge les fournisseurs personnalisés utilisant api: "google-generative-ai". Ainsi, lemondata-gemini reste une route Gemini native valide pour les utilisateurs d’OpenClaw.

Vérifier la configuration

Après avoir enregistré la configuration, redémarrez votre instance OpenClaw et testez avec un message simple. Si vous recevez une réponse, le fournisseur est configuré correctement.
# Self-hosted: restart the service
systemctl --user restart openclaw    # Linux
launchctl stop cc.lemondata.openclaw && launchctl start cc.lemondata.openclaw  # macOS

Étapes suivantes

Une fois qu’OpenClaw est connecté, ces guides vous aideront à utiliser LemonData plus efficacement :
  • API Formats — comprenez les différences entre les routes OpenAI, Responses, Anthropic et Gemini
  • IDE / SDK Compatibility — voyez quand /v1/responses est la meilleure option
  • Error Handling — apprenez les modes d’échec courants et les stratégies de récupération
  • Models Overview — parcourez les IDs de modèles avant de les intégrer aux agents