概覽
LiteLLM 與 LemonData 常見有兩種結合方式:- 把 LemonData 當作 LiteLLM 背後的 OpenAI-compatible 上游
- 在 LemonData 前面再放一層 LiteLLM,統一做虛擬 key、路由策略或額外觀測
api_base 指向 https://api.lemondata.cc/v1。
如果你明確需要 Claude-native 或 Gemini-native 請求形狀,優先使用 LemonData 自己的原生整合頁,而不是強行經由 LiteLLM 的 OpenAI-compatible 抽象。
類型: 框架或平台主要路徑: OpenAI-compatible 上游支援級別: 支援路徑
安裝
Proxy 設定
建立一個litellm-config.yaml:
透過 OpenAI SDK 呼叫 LiteLLM
直接以 Python 函式庫方式使用
如果你把 LiteLLM 當作 Python 函式庫而不是 proxy 使用,同樣保持 LemonData 的 base URL:最佳實務
對 LemonData 優先使用 custom_openai
對 LemonData 優先使用 custom_openai
除非你有非常明確的理由去建立更複雜的 provider 映射,否則請把 LemonData 視為 OpenAI-compatible 上游。
只在確實需要額外 gateway 層時再用 LiteLLM
只在確實需要額外 gateway 層時再用 LiteLLM
如果你的平台自己還需要 virtual keys、額外路由策略或集中日誌,LiteLLM 放在 LemonData 前面是有價值的。
原生能力不要過度承諾
原生能力不要過度承諾
OpenAI-compatible 翻譯層很適合廣覆蓋相容,但它不是用來承諾每一個 provider-native 細節都等價可用的地方。
疑難排解
連線錯誤
連線錯誤
- 確認
api_base完全等於https://api.lemondata.cc/v1 - 確認 LiteLLM 所在環境可以透過公網存取 LemonData
- 如果你在本地跑 proxy,請確認 OpenAI client 指向的是 LiteLLM 連接埠,而不是直接指向 LemonData
驗證錯誤
驗證錯誤
- 檢查 LiteLLM 讀取到的
OPENAI_API_KEY是否正確 - 確認 LemonData key 以
sk-開頭 - 確認該 key 已在 LemonData dashboard 中啟用
找不到模型
找不到模型
- 檢查
custom_openai/<model>中 LemonData 模型名是否正確 - 把 LiteLLM 裡的
model_name別名與真實 LemonData 模型 id 分開管理