Documentation Index
Fetch the complete documentation index at: https://docs.lemondata.cc/llms.txt
Use this file to discover all available pages before exploring further.
このガイドは、self-hosted OpenClaw ユーザー向けで、LemonData を AI プロバイダとして接続したい方向けです。
概要
現在の OpenClaw バージョンでは、推奨される方法はmodels.providers 経由で LemonData を構成することです。
素早く始めたいだけなら、lemondata のみを構成するだけで十分です。Responses API、Claude native、Gemini native、または MiniMax native の動作が明示的に必要な場合にのみ、他のプロバイダを追加してください。
| Provider | OpenClaw api | Best for | baseUrl |
|---|---|---|---|
lemondata | openai-completions | GPT、DeepSeek、Qwen、およびほとんどの OpenAI 互換コール | https://api.lemondata.cc/v1 |
lemondata-responses | openai-responses | /v1/responses セマンティクスを期待する OpenAI Responses ワークフロー | https://api.lemondata.cc/v1 |
lemondata-claude | anthropic-messages | Claude のネイティブ Messages API | https://api.lemondata.cc |
lemondata-gemini | google-generative-ai | Gemini のネイティブ API 形式 | https://api.lemondata.cc |
lemondata-minimax | anthropic-messages | MiniMax のネイティブルーティング | https://api.lemondata.cc |
前提条件
- セルフホストの OpenClaw インスタンス
- LemonData API Key — Get one here
設定
OpenClaw の設定を編集します:- Self-hosted:
~/.openclaw/openclaw.json
models.providers の下に LemonData プロバイダを追加します:
5 つのプロバイダはすべて 同じ API Key を使用します。LemonData アカウントは 1 つあれば十分です。
上記の
models 配列は一般的な例のみを示しています。必要に応じて各プロバイダにモデル ID を追加してください。モデルの使用
OpenClaw は引き続きprovider/model 形式でモデルを参照します:
モデルの例
| Provider | Model reference | Description |
|---|---|---|
lemondata | lemondata/gpt-4o | OpenAI 互換ルート |
lemondata | lemondata/deepseek-r1 | DeepSeek 推論モデル |
lemondata-responses | lemondata-responses/gpt-4o | Responses API ルート |
lemondata-claude | lemondata-claude/claude-sonnet-4-6 | ネイティブ Claude Messages ルート |
lemondata-gemini | lemondata-gemini/gemini-2.5-flash | ネイティブ Gemini ルート |
lemondata-minimax | lemondata-minimax/minimax-m1 | ネイティブ MiniMax ルート |
どのプロバイダを使うべきか
lemondata: 一般的なエージェントやチャット用途のデフォルト選択。lemondata-responses: OpenClaw のワークフローが OpenAI Responses のセマンティクスに明示的に依存する場合に使用。lemondata-claude: Claude のネイティブ Messages 動作を利用したい場合に使用。lemondata-gemini: Gemini ネイティブのリクエスト/レスポンス形式や既存の Gemini スタイル統合を使いたい場合に使用。lemondata-minimax: MiniMax をネイティブルートで利用したい場合に使用。
lemondata/gemini-* 経由で Gemini モデルを呼び出すことができます。
よくある間違い
Still using the old top-level providers array
Still using the old top-level providers array
現在の OpenClaw ドキュメントは
models.providers を使用します。古いトップレベルの providers 配列形式のままにしておくと、OpenClaw が設定を無視したり、プロバイダプレフィックスの解決に失敗したりする可能性があります。Forgetting /v1 on lemondata-responses
Forgetting /v1 on lemondata-responses
openai-responses は LemonData の /v1/responses パスにマップされるため、lemondata-responses は https://api.lemondata.cc/v1 を使用する必要があります。Adding /v1 to lemondata-claude, lemondata-gemini, or lemondata-minimax
Adding /v1 to lemondata-claude, lemondata-gemini, or lemondata-minimax
anthropic-messages や google-generative-ai は https://api.lemondata.cc を /v1 なしで使用するべきです。/v1 を追加すると不正確なリクエストパスが生成される可能性があります。Does OpenClaw still support native Gemini?
Does OpenClaw still support native Gemini?
はい。現在の OpenClaw ドキュメントは組み込みの
google プロバイダを引き続き含み、api: "google-generative-ai" を使ったカスタムプロバイダもサポートしています。したがって lemondata-gemini は OpenClaw ユーザーにとって有効なネイティブ Gemini ルートのままです。設定の検証
設定を保存したら、OpenClaw インスタンスを再起動し、簡単なメッセージでテストしてください。レスポンスが返ってくれば、プロバイダは正しく構成されています。次のステップ
OpenClaw が接続されたら、以下のガイドが LemonData をより効果的に使うのに役立ちます:- API Formats — OpenAI、Responses、Anthropic、Gemini ルートの違いを理解する
- IDE / SDK Compatibility —
/v1/responsesが適している場合を確認する - Error Handling — 一般的な失敗モードと回復パターンを学ぶ
- Models Overview — エージェントに組み込む前にモデル ID を参照する