Zum Hauptinhalt springen

Übersicht

Typ: CodierwerkzeugPrimärer Pfad: OpenAI Responses (erweiterter optionaler Pfad)Unterstützung: Unterstützt mit Modell-/Pfad-Einschränkungen
OpenAI Codex ist ein Open-Source-Kommandozeilenwerkzeug (CLI), das als leichtgewichtiger Coding-Agent dient und in der Lage ist, Code im Terminal zu lesen, zu ändern und auszuführen. Es basiert auf GPT-Modellen und ist für Code-Generierung optimiert. Für LemonData kann Codex CLI /v1/responses verwenden, aber Sie sollten dies als einen erweiterten Kompatibilitätspfad behandeln. Einige Responses-only-Funktionen sind nicht für jedes Modell und jeden gerouteten Pfad garantiert.

Systemanforderungen

  • OS: macOS, Linux (offiziell unterstützt), Windows über WSL
  • Node.js: Version 18+
  • npm: Version 10.x.x oder höher

Installation

npm install -g @openai/codex
Installation verifizieren:
codex --version

Konfiguration

Schritt 1: API-Schlüssel setzen

Temporär (aktuelle Sitzung):
export OPENAI_API_KEY="sk-your-lemondata-key"
Dauerhafte Konfiguration: In ~/.bashrc, ~/.zshrc oder ~/.bash_profile hinzufügen:
export OPENAI_API_KEY="sk-your-lemondata-key"
Dann neu laden:
source ~/.zshrc  # or source ~/.bashrc

Schritt 2: config.toml konfigurieren

Bearbeiten Sie ~/.codex/config.toml:
model_provider = "lemondata"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
fast_mode = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
sandbox_mode = "danger-full-access"
approval_policy = "never"

disable_response_storage = false
personality = "friendly"
service_tier = "fast"

[model_providers.lemondata]
env_key = "OPENAI_API_KEY"
name = "lemondata"
base_url = "https://api.lemondata.cc/v1"
wire_api = "responses"
supports_websockets = true
websocket_connect_timeout_ms = 15000

[features]
responses_websockets = true
responses_websockets_v2 = true
Wenn die Konfigurationsdatei nicht existiert, führen Sie codex einmal aus, um sie zu erzeugen, und bearbeiten Sie dann die Datei. Starten Sie Codex nach dem Ändern von config.toml vollständig neu, damit die neuen Provider-Einstellungen geladen werden.
Codex stellt die Unterstützung für chat/completions bei benutzerdefinierten Providern ein. Belassen Sie wire_api = "responses" für LemonData, es sei denn, Sie verwenden absichtlich einen älteren Kompatibilitätspfad.
Wenn eine Anfrage Responses-only-Felder verwendet, die für das ausgewählte Modell oder den gewählten Pfad nicht unterstützt werden, gibt LemonData einen expliziten Fehler zurück, anstatt die Anfrage stillschweigend herunterzustufen.

Grundlegende Verwendung

Interaktiven Modus starten:
codex
Direkter Befehl:
codex "Fix the bug in main.py line 42"
Modell angeben:
codex -m gpt-5.4 "Build a REST API server"

Empfohlene Modelle

ModellAm besten für
gpt-5.4Beste Standardwahl für Coding und Reasoning
gpt-5-miniSchnellere, günstigere Fallback-Option für Coding-Workflows
claude-sonnet-4-6Code-Review, Dokumentation
deepseek-r1Algorithmendesign, Reasoning

Interaktive Befehle

BefehlBeschreibung
/helpHilfe anzeigen
/exit oder Ctrl+CBeenden
/clearKonversation löschen
/configKonfiguration anzeigen
/model <name>Modell wechseln
/tokensToken-Verbrauch anzeigen

Konfiguration verifizieren

# Check environment variable
echo $OPENAI_API_KEY

# Test API connection
codex "Hello, Codex!"

# View configuration
cat ~/.codex/config.toml

Häufige Anwendungsfälle

Code-Review:
git diff | codex "Review these code changes"
Commit-Nachrichten generieren:
git diff --staged | codex "Generate a commit message for these changes"
Fehler beheben:
codex "Fix the TypeScript errors in src/components/"
Code erklären:
cat main.py | codex "Explain what this code does"

Fehlerbehebung

  • Überprüfen Sie, ob base_url in config.toml genau https://api.lemondata.cc/v1 ist
  • Prüfen Sie die Netzwerkverbindung
  • Stellen Sie sicher, dass kein Proxy stört
  • Überprüfen Sie, ob env_key = "OPENAI_API_KEY" in ~/.codex/config.toml vorhanden ist
  • Überprüfen Sie, ob die Umgebungsvariable OPENAI_API_KEY gesetzt ist
  • Prüfen Sie, ob der Schlüssel mit sk- beginnt
  • Stellen Sie sicher, dass der Schlüssel im LemonData-Dashboard aktiv ist
  • Prüfen Sie, ob der Modellname genau übereinstimmt
  • Überprüfen Sie die Modellverfügbarkeit unter lemondata.cc/en/models
  • Einige Felder sind nur auf /v1/responses verfügbar, wenn LemonData dieses Verhalten für das ausgewählte Modell und den gewählten Pfad garantieren kann
  • Wenn Sie unsupported_request_field sehen, entfernen Sie dieses Feld oder wechseln Sie zu einem Workflow, der nicht davon abhängt