Zum Hauptinhalt springen
Die Responses API ist OpenAIs neuere zustandsbehaftete Konversations-API. LemonData unterstützt dieses Format als einen fortgeschrittenen optionalen Pfad für kompatible Modelle; verwenden Sie POST /v1/chat/completions als den standardmäßigen OpenAI-kompatiblen Pfad, sofern Sie nicht explizit Responses-spezifisches Verhalten benötigen.

Request Body

model
string
erforderlich
ID des zu verwendenden Modells. Siehe Models für verfügbare Optionen.
input
array
erforderlich
Eine Liste von Input-Elementen, die die Konversation bilden.Jedes Element kann sein:
  • message: Eine Konversationsnachricht mit Rolle und Inhalt
  • function_call: Eine Anfrage zum Aufruf einer Funktion
  • function_call_output: Ausgabe eines Funktionsaufrufs
Für multimodalen Input kann message.content entweder eine einfache Zeichenkette oder ein Array von Inhaltsblöcken sein. Für bildfähige Modelle wie z. B. GPT-5.4-Varianten übergeben Sie Bilder als input_image-Blöcke anstatt URLs oder Base64-Strings direkt in Plaintext einzubetten.Beispielhafte Inhaltsblöcke:
  • { "type": "input_text", "text": "Describe this image" }
  • { "type": "input_image", "image_url": "https://example.com/image.jpg" }
  • { "type": "input_image", "image_url": "data:image/png;base64,..." }
instructions
string
Systemanweisungen für das Modell (entspricht einer Systemnachricht).
max_output_tokens
integer
Maximale Anzahl Tokens, die generiert werden sollen.
temperature
number
Standard:"1"
Sampling-Temperatur zwischen 0 und 2.
tools
array
Eine Liste von Tools, die das Modell aufrufen darf.
stream
boolean
Standard:"false"
Wenn true, wird ein Stream von Events zurückgegeben.
previous_response_id
string
ID einer vorherigen Response, von der die Konversation fortgesetzt werden soll.
store
boolean
Standard:"true"
Ob die Antwort für spätere Abrufe gespeichert werden soll.
metadata
object
Metadaten, die zur Nachverfolgung an die Antwort angehängt werden.
text
object
Konfigurationsoptionen für die Textgenerierung. Das Verhalten von text.format hängt vom gewählten Modell und Pfad ab; es ist nicht durchgängig für jedes Modell garantiert.
parallel_tool_calls
boolean
Standard:"true"
Ob mehrere Tool-Aufrufe parallel erlaubt sind.
top_p
number
Nucleus-Sampling-Parameter (0-1).
reasoning
object
Reasoning-Konfiguration für reasoning-fähige Modelle wie die GPT-5-Familie-Varianten.
  • effort (string): Reasoning-Aufwandsstufe (low, medium, high)

Response

id
string
Eindeutiger Bezeichner für die Antwort.
object
string
Immer response.
created
integer
Unix-Zeitstempel, wann die Antwort erstellt wurde.
output
array
Liste der vom Modell generierten Ausgabeelemente.
usage
object
Statistiken zur Token-Nutzung.
curl -X POST "https://api.lemondata.cc/v1/responses" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "input": [
      {"type": "message", "role": "user", "content": "Hello!"}
    ],
    "max_output_tokens": 1000
  }'
{
  "id": "resp_abc123",
  "object": "response",
  "created": 1706000000,
  "model": "gpt-4o",
  "output": [
    {
      "type": "message",
      "role": "assistant",
      "content": [
        {"type": "text", "text": "Hello! How can I help you today?"}
      ]
    }
  ],
  "usage": {
    "input_tokens": 10,
    "output_tokens": 12,
    "total_tokens": 22
  }
}