Zum Hauptinhalt springen

Überblick

LiteLLM und LemonData lassen sich meist auf zwei Arten kombinieren.
  • LemonData als OpenAI-kompatiblen Upstream hinter LiteLLM verwenden
  • LiteLLM vor LemonData setzen, um virtuelle Keys, zusätzliches Routing oder zentrale Observability abzubilden
Für LemonData ist der sauberste Standardpfad die Nutzung des custom OpenAI / OpenAI-kompatiblen-Pfads von LiteLLM mit api_base = https://api.lemondata.cc/v1.
Wenn Sie explizit Claude-native oder Gemini-native Request-Shapes benötigen, bevorzugen Sie die nativen LemonData-Integrationen, statt diese Abläufe durch LiteLLMs OpenAI-kompatible Abstraktion zu zwingen.
Typ: Framework oder PlattformPrimärer Pfad: OpenAI-kompatibler UpstreamSupport-Niveau: Unterstützter Pfad

Installation

pip install 'litellm[proxy]'

Proxy-Konfiguration

model_list:
  - model_name: lemondata-gpt-5.4
    litellm_params:
      model: custom_openai/gpt-5.4
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY
Starten:
export OPENAI_API_KEY="sk-your-lemondata-key"
litellm --config litellm-config.yaml --port 4000

Best Practices

  • Behandeln Sie LemonData zunächst als custom_openai-Upstream
  • Setzen Sie LiteLLM nur dann davor, wenn Sie wirklich eine zusätzliche Gateway-Schicht benötigen
  • Erwarten Sie auf dem OpenAI-kompatiblen Pfad nicht automatisch jedes anbieternative Detail