POST /v1/chat/completions als den standardmäßigen OpenAI-kompatiblen Pfad, sofern Sie nicht explizit Responses-spezifisches Verhalten benötigen.
Request Body
Eine Liste von Input-Elementen, die die Konversation bilden.Jedes Element kann sein:
message: Eine Konversationsnachricht mit Rolle und Inhaltfunction_call: Eine Anfrage zum Aufruf einer Funktionfunction_call_output: Ausgabe eines Funktionsaufrufs
message.content entweder eine einfache Zeichenkette oder ein Array von Inhaltsblöcken sein. Für bildfähige Modelle wie z. B. GPT-5.4-Varianten übergeben Sie Bilder als input_image-Blöcke anstatt URLs oder Base64-Strings direkt in Plaintext einzubetten.Beispielhafte Inhaltsblöcke:{ "type": "input_text", "text": "Describe this image" }{ "type": "input_image", "image_url": "https://example.com/image.jpg" }{ "type": "input_image", "image_url": "data:image/png;base64,..." }
Systemanweisungen für das Modell (entspricht einer Systemnachricht).
Maximale Anzahl Tokens, die generiert werden sollen.
Sampling-Temperatur zwischen 0 und 2.
Eine Liste von Tools, die das Modell aufrufen darf.
Wenn true, wird ein Stream von Events zurückgegeben.
ID einer vorherigen Response, von der die Konversation fortgesetzt werden soll.
Ob die Antwort für spätere Abrufe gespeichert werden soll.
Metadaten, die zur Nachverfolgung an die Antwort angehängt werden.
Konfigurationsoptionen für die Textgenerierung. Das Verhalten von
text.format hängt vom gewählten Modell und Pfad ab; es ist nicht durchgängig für jedes Modell garantiert.Ob mehrere Tool-Aufrufe parallel erlaubt sind.
Nucleus-Sampling-Parameter (0-1).
Reasoning-Konfiguration für reasoning-fähige Modelle wie die GPT-5-Familie-Varianten.
effort(string): Reasoning-Aufwandsstufe (low,medium,high)
Response
Eindeutiger Bezeichner für die Antwort.
Immer
response.Unix-Zeitstempel, wann die Antwort erstellt wurde.
Liste der vom Modell generierten Ausgabeelemente.
Statistiken zur Token-Nutzung.