메인 콘텐츠로 건너뛰기

개요

LiteLLM와 LemonData를 함께 쓰는 대표적인 방식은 두 가지입니다.
  • LemonData를 LiteLLM 뒤의 OpenAI-compatible upstream 으로 사용
  • LiteLLM를 LemonData 앞단에 두고 가상 키, 추가 라우팅, 중앙 관측 기능을 담당하게 함
LemonData에서는 LiteLLM의 custom OpenAI / OpenAI-compatible 경로를 사용하고 api_basehttps://api.lemondata.cc/v1 로 지정하는 구성이 가장 무난한 기본값입니다.
Claude-native 또는 Gemini-native 요청 형태가 꼭 필요하다면, LiteLLM의 OpenAI-compatible 추상화에 억지로 맞추기보다 LemonData의 native 통합 경로를 우선하세요.
유형: 프레임워크 / 플랫폼주요 경로: OpenAI 호환 upstream지원 수준: 지원 경로

설치

pip install 'litellm[proxy]'

Proxy 설정

model_list:
  - model_name: lemondata-gpt-5.4
    litellm_params:
      model: custom_openai/gpt-5.4
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY
실행:
export OPENAI_API_KEY="sk-your-lemondata-key"
litellm --config litellm-config.yaml --port 4000

모범 사례

  • LemonData는 우선 custom_openai 상류로 취급하세요
  • 추가 게이트웨이 계층이 정말 필요할 때만 LiteLLM를 앞단에 두세요
  • OpenAI-compatible 경로에서 제공자 고유의 세부 동작까지 과도하게 기대하지 마세요