Zum Hauptinhalt springen

Übersicht

LemonData funktioniert mit den offiziellen OpenAI-SDKs, indem der Client auf https://api.lemondata.cc/v1 zeigt. Bei den meisten neuen Projekten sollten Sie Chat Completions als standardmäßigen OpenAI-kompatiblen Pfad bevorzugen. Verwenden Sie die Responses API nur, wenn Sie explizit Responses-spezifisches Verhalten benötigen. Responses-spezifische Felder verhalten sich nicht zwangsläufig in jedem Modell und über jeden gerouteten Pfad identisch.
Python, JavaScript und Go haben offizielle OpenAI-SDKs. PHP funktioniert gut mit OpenAI-kompatiblen Community-Clients, ist jedoch kein offizielles OpenAI-SDK.
Typ: Native SDKPrimärer Pfad: OpenAI-kompatibel / Chat CompletionsUnterstützungszuverlässigkeit: Unterstützter Kernpfad

Installation

pip install openai
Verwenden Sie POST /v1/responses nur, wenn Sie explizit Responses-spezifisches Verhalten benötigen. Einige nur für Responses bestimmte Felder können weiterhin vom ausgewählten Modell und dem gerouteten Pfad abhängen.

Client konfigurieren

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-lemondata-key",
    base_url="https://api.lemondata.cc/v1",
)

Empfohlen: Chat Completions

response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[{"role": "user", "content": "Explain what LemonData does in one sentence."}]
)

print(response.choices[0].message.content)

Erweitert: Responses API

Verwenden Sie diesen Pfad nur, wenn Ihr Tool oder Workflow ausdrücklich von den OpenAI Responses-Semantiken abhängt.

Streaming mit Responses

stream = client.responses.create(
    model="gpt-5.4",
    input="Write a short poem about coding.",
    stream=True,
)

for event in stream:
    if event.type == "response.output_text.delta":
        print(event.delta, end="")

Tools / Funktionsaufrufe

response = client.responses.create(
    model="gpt-5.4",
    input="What's the weather in Tokyo?",
    tools=[{
        "type": "function",
        "name": "get_weather",
        "description": "Get weather for a location",
        "parameters": {
            "type": "object",
            "properties": {
                "location": {"type": "string"}
            },
            "required": ["location"]
        }
    }]
)

for item in response.output:
    if item.type == "function_call":
        print(item.name)
        print(item.arguments)

Vision mit Responses

response = client.responses.create(
    model="gpt-4o",
    input=[{
        "role": "user",
        "content": [
            {"type": "input_text", "text": "What's in this image?"},
            {"type": "input_image", "image_url": "https://example.com/image.jpg"}
        ]
    }]
)

print(response.output_text)

Embeddings

response = client.embeddings.create(
    model="text-embedding-3-small",
    input="Hello world"
)

print(response.data[0].embedding[:5])

Chat Completions

Chat Completions ist der standardmäßige OpenAI-kompatible Pfad für LemonData:
response = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Fehlerbehebung

  • Überprüfen Sie, ob die Basis-URL genau https://api.lemondata.cc/v1 ist
  • Prüfen Sie auf Proxy-Interferenzen oder benutzerdefinierte HTTP-Client-Überschreibungen
  • Stellen Sie sicher, dass Ihre SDK-Version aktuell ist, bevor Sie das Verhalten des Providers debuggen
  • Prüfen Sie, ob Ihr API-Schlüssel mit sk- beginnt
  • Überprüfen Sie, ob der Schlüssel im LemonData-Dashboard aktiv ist
  • Bestätigen Sie, dass das SDK Authorization: Bearer ... sendet
  • responses.create(...) sendet Anfragen an /v1/responses
  • chat.completions.create(...) sendet Anfragen an /v1/chat/completions
  • Verwenden Sie standardmäßig Chat Completions, es sei denn, Sie benötigen explizit Responses-spezifisches Verhalten