メインコンテンツへスキップ

概要

LiteLLM と LemonData は、主に 2 つの形で組み合わせられます。
  • LemonData を LiteLLM の背後にある OpenAI-compatible upstream として使う
  • LiteLLM を LemonData の前段に置き、virtual key、追加ルーティング、集中 observability を担わせる
LemonData では、LiteLLM の custom OpenAI / OpenAI-compatible パスを使い、api_basehttps://api.lemondata.cc/v1 に向けるのが最も扱いやすい標準構成です。
Claude-native や Gemini-native の request shape が必要な場合は、LiteLLM の OpenAI-compatible 抽象に押し込むのではなく、LemonData 側の native integration を優先してください。
種類: フレームワーク / プラットフォーム主要パス: OpenAI互換 upstreamサポートレベル: サポート済みパス

インストール

pip install 'litellm[proxy]'

Proxy 設定

model_list:
  - model_name: lemondata-gpt-5.4
    litellm_params:
      model: custom_openai/gpt-5.4
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY
起動:
export OPENAI_API_KEY="sk-your-lemondata-key"
litellm --config litellm-config.yaml --port 4000

ベストプラクティス

  • LemonData はまず custom_openai upstream として扱う
  • 追加の gateway 層が本当に必要なときだけ LiteLLM を前段に置く
  • プロバイダー固有の細部まで OpenAI-compatible 経路で過度に期待しない