跳转到主要内容

概述

LiteLLM 与 LemonData 常见有两种结合方式:
  • 把 LemonData 作为 LiteLLM 背后的 OpenAI-compatible 上游
  • 在 LemonData 前面再放一层 LiteLLM,统一做虚拟 key、路由策略或额外观测
对 LemonData 而言,最干净的默认路径是使用 LiteLLM 的 custom OpenAI / OpenAI-compatible 配置,并把 api_base 指向 https://api.lemondata.cc/v1
如果你明确需要 Claude-native 或 Gemini-native 请求形状,优先使用 LemonData 自己的原生集成页,而不是强行经由 LiteLLM 的 OpenAI-compatible 抽象。
类型: 框架或平台主要路径: OpenAI-compatible 上游支持级别: 支持路径

安装

pip install 'litellm[proxy]'

Proxy 配置

创建一个 litellm-config.yaml
model_list:
  - model_name: lemondata-gpt-5.4
    litellm_params:
      model: custom_openai/gpt-5.4
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY

  - model_name: lemondata-claude-sonnet
    litellm_params:
      model: custom_openai/claude-sonnet-4-6
      api_base: https://api.lemondata.cc/v1
      api_key: os.environ/OPENAI_API_KEY
启动代理:
export OPENAI_API_KEY="sk-your-lemondata-key"
litellm --config litellm-config.yaml --port 4000

通过 OpenAI SDK 调 LiteLLM

from openai import OpenAI

client = OpenAI(
    api_key="anything",
    base_url="http://127.0.0.1:4000"
)

response = client.chat.completions.create(
    model="lemondata-gpt-5.4",
    messages=[{"role": "user", "content": "Hello!"}]
)

print(response.choices[0].message.content)

直接以 Python 库方式使用

如果你把 LiteLLM 当作 Python 库而不是 proxy 使用,同样保持 LemonData 的 base URL:
import litellm

response = litellm.completion(
    model="custom_openai/gpt-5.4",
    api_base="https://api.lemondata.cc/v1",
    api_key="sk-your-lemondata-key",
    messages=[{"role": "user", "content": "Summarize this repo."}]
)

最佳实践

除非你有非常明确的理由去构造更复杂的提供方映射,否则请把 LemonData 视为 OpenAI-compatible 上游。
如果你的平台自己还需要 virtual keys、额外路由策略或集中日志,LiteLLM 放在 LemonData 前面是有价值的。
OpenAI-compatible 翻译层很适合广覆盖兼容,但它不是用来承诺每一个原生提供方细节都等价可用的地方。

故障排查

  • 确认 api_base 完全等于 https://api.lemondata.cc/v1
  • 确认 LiteLLM 所在环境可以通过公网访问 LemonData
  • 如果你在本地跑 proxy,请确认 OpenAI client 指向的是 LiteLLM 端口,而不是直接指向 LemonData
  • 检查 LiteLLM 读取到的 OPENAI_API_KEY 是否正确
  • 确认 LemonData key 以 sk- 开头
  • 确认该 key 已在 LemonData dashboard 中激活
  • 检查 custom_openai/<model> 中 LemonData 模型名是否正确
  • 把 LiteLLM 里的 model_name 别名和真实 LemonData 模型 id 分开管理