概述
LiteLLM 与 LemonData 常见有两种结合方式:- 把 LemonData 作为 LiteLLM 背后的 OpenAI-compatible 上游
- 在 LemonData 前面再放一层 LiteLLM,统一做虚拟 key、路由策略或额外观测
api_base 指向 https://api.lemondata.cc/v1。
如果你明确需要 Claude-native 或 Gemini-native 请求形状,优先使用 LemonData 自己的原生集成页,而不是强行经由 LiteLLM 的 OpenAI-compatible 抽象。
类型: 框架或平台主要路径: OpenAI-compatible 上游支持级别: 支持路径
安装
Proxy 配置
创建一个litellm-config.yaml:
通过 OpenAI SDK 调 LiteLLM
直接以 Python 库方式使用
如果你把 LiteLLM 当作 Python 库而不是 proxy 使用,同样保持 LemonData 的 base URL:最佳实践
对 LemonData 优先使用 custom_openai
对 LemonData 优先使用 custom_openai
除非你有非常明确的理由去构造更复杂的提供方映射,否则请把 LemonData 视为 OpenAI-compatible 上游。
只在确实需要额外网关层时再用 LiteLLM
只在确实需要额外网关层时再用 LiteLLM
如果你的平台自己还需要 virtual keys、额外路由策略或集中日志,LiteLLM 放在 LemonData 前面是有价值的。
原生能力不要过度承诺
原生能力不要过度承诺
OpenAI-compatible 翻译层很适合广覆盖兼容,但它不是用来承诺每一个原生提供方细节都等价可用的地方。
故障排查
连接错误
连接错误
- 确认
api_base完全等于https://api.lemondata.cc/v1 - 确认 LiteLLM 所在环境可以通过公网访问 LemonData
- 如果你在本地跑 proxy,请确认 OpenAI client 指向的是 LiteLLM 端口,而不是直接指向 LemonData
鉴权错误
鉴权错误
- 检查 LiteLLM 读取到的
OPENAI_API_KEY是否正确 - 确认 LemonData key 以
sk-开头 - 确认该 key 已在 LemonData dashboard 中激活
模型找不到
模型找不到
- 检查
custom_openai/<model>中 LemonData 模型名是否正确 - 把 LiteLLM 里的
model_name别名和真实 LemonData 模型 id 分开管理