Langsung ke konten utama

Ikhtisar

LiteLLM dan LemonData biasanya dipakai bersama dengan dua cara.
  • memakai LemonData sebagai upstream OpenAI-compatible di belakang LiteLLM
  • menempatkan LiteLLM di depan LemonData untuk menangani virtual key, routing tambahan, atau observability terpusat
Untuk LemonData, jalur default yang paling bersih adalah memakai mode custom OpenAI / OpenAI-compatible milik LiteLLM dengan api_base = https://api.lemondata.cc/v1.
Jika Anda benar-benar membutuhkan request shape Claude-native atau Gemini-native, lebih baik gunakan integrasi native LemonData daripada memaksa alur tersebut melewati abstraksi OpenAI-compatible milik LiteLLM.
Jenis: Framework atau platformJalur utama: upstream OpenAI-compatibleTingkat dukungan: Jalur didukung

Instalasi

pip install 'litellm[proxy]'

Konfigurasi proxy

model_list:
  - model_name: lemondata-gpt-5.4
    litellm_params:
      model: custom_openai/gpt-5.4
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY
Menjalankan proxy:
export OPENAI_API_KEY="sk-your-lemondata-key"
litellm --config litellm-config.yaml --port 4000

Praktik terbaik

  • Perlakukan LemonData terlebih dahulu sebagai upstream custom_openai
  • Tempatkan LiteLLM di depan hanya jika Anda benar-benar membutuhkan lapisan gateway tambahan
  • Jangan menganggap semua detail native milik penyedia otomatis tersedia di jalur OpenAI-compatible