الانتقال إلى المحتوى الرئيسي

نظرة عامة

عادةً ما يُستخدم LiteLLM مع LemonData بطريقتين.
  • استخدام LemonData كـ upstream متوافق مع OpenAI خلف LiteLLM
  • وضع LiteLLM أمام LemonData لإدارة المفاتيح الافتراضية أو التوجيه الإضافي أو المراقبة المركزية
بالنسبة إلى LemonData، فإن أنظف مسار افتراضي هو استخدام وضع custom OpenAI / OpenAI-compatible في LiteLLM مع api_base = https://api.lemondata.cc/v1.
إذا كنت تحتاج صراحةً إلى request shapes من نوع Claude-native أو Gemini-native، فالأفضل استخدام التكاملات الأصلية في LemonData بدلًا من فرض هذه التدفقات عبر طبقة LiteLLM المتوافقة مع OpenAI.
النوع: إطار أو منصةالمسار الرئيسي: upstream متوافق مع OpenAIمستوى الدعم: مسار مدعوم

التثبيت

pip install 'litellm[proxy]'

إعداد الـ proxy

model_list:
  - model_name: lemondata-gpt-5.4
    litellm_params:
      model: custom_openai/gpt-5.4
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY
التشغيل:
export OPENAI_API_KEY="sk-your-lemondata-key"
litellm --config litellm-config.yaml --port 4000

أفضل الممارسات

  • اعتبر LemonData أولًا upstream من نوع custom_openai
  • ضع LiteLLM في المقدمة فقط عندما تحتاج فعلًا إلى طبقة gateway إضافية
  • لا تفترض تلقائيًا توافر كل التفاصيل الأصلية للمزوّد عبر المسار المتوافق مع OpenAI