Passer au contenu principal

Aperçu

Type: Outil de programmationChemin principal: OpenAI Responses (chemin optionnel avancé)Niveau de prise en charge: Pris en charge avec limitations selon le modèle/chemin
OpenAI Codex est un outil en ligne de commande open-source (CLI) qui sert d’agent de codage léger, capable de lire, modifier et exécuter du code dans le terminal. Il est construit sur des modèles GPT et optimisé pour la génération de code. Pour LemonData, Codex CLI peut utiliser /v1/responses, mais vous devez le considérer comme un chemin de compatibilité avancé. Certaines fonctionnalités spécifiques à Responses ne sont pas garanties sur tous les modèles et chemins routés.

Configuration requise

  • OS: macOS, Linux (prise en charge officielle), Windows via WSL
  • Node.js: Version 18+
  • npm: Version 10.x.x ou supérieure

Installation

npm install -g @openai/codex
Vérifier l’installation :
codex --version

Configuration

Étape 1 : Définir la clé API

Temporaire (session en cours) :
export OPENAI_API_KEY="sk-your-lemondata-key"
Configuration permanente : Ajouter à ~/.bashrc, ~/.zshrc ou ~/.bash_profile :
export OPENAI_API_KEY="sk-your-lemondata-key"
Puis rechargez :
source ~/.zshrc  # or source ~/.bashrc

Étape 2 : Configurer config.toml

Éditez ~/.codex/config.toml :
model_provider = "lemondata"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
fast_mode = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
sandbox_mode = "danger-full-access"
approval_policy = "never"

disable_response_storage = false
personality = "friendly"
service_tier = "fast"

[model_providers.lemondata]
env_key = "OPENAI_API_KEY"
name = "lemondata"
base_url = "https://api.lemondata.cc/v1"
wire_api = "responses"
supports_websockets = true
websocket_connect_timeout_ms = 15000

[features]
responses_websockets = true
responses_websockets_v2 = true
Si le fichier de configuration n’existe pas, exécutez codex une fois pour le générer, puis modifiez le fichier. Redémarrez complètement Codex après avoir modifié config.toml afin que les nouveaux paramètres du fournisseur soient rechargés.
Codex déprécie la prise en charge de chat/completions pour les fournisseurs personnalisés. Conservez wire_api = "responses" pour LemonData à moins que vous n’utilisiez intentionnellement un ancien chemin de compatibilité.
Si une requête utilise des champs spécifiques à Responses qui ne sont pas pris en charge par le modèle ou le chemin sélectionné, LemonData retourne une erreur explicite au lieu de rétrograder silencieusement la requête.

Utilisation de base

Démarrer le mode interactif :
codex
Commande directe :
codex "Fix the bug in main.py line 42"
Spécifier le modèle :
codex -m gpt-5.4 "Build a REST API server"

Modèles recommandés

ModelIdéal pour
gpt-5.4Choix par défaut optimal pour le codage et le raisonnement
gpt-5-miniSolution de repli plus rapide et moins coûteuse pour les flux de travail de codage
claude-sonnet-4-6Revue de code, documentation
deepseek-r1Conception d’algorithmes, raisonnement

Commandes interactives

CommandDescription
/helpAfficher l’aide
/exit or Ctrl+CQuitter
/clearEffacer la conversation
/configVoir la configuration
/model <name>Changer de modèle
/tokensVoir l’utilisation des tokens

Vérifier la configuration

# Check environment variable
echo $OPENAI_API_KEY

# Test API connection
codex "Hello, Codex!"

# View configuration
cat ~/.codex/config.toml

Cas d’utilisation courants

Revue de code :
git diff | codex "Review these code changes"
Générer des messages de commit :
git diff --staged | codex "Generate a commit message for these changes"
Corriger les erreurs :
codex "Fix the TypeScript errors in src/components/"
Expliquer le code :
cat main.py | codex "Explain what this code does"

Dépannage

  • Vérifiez que base_url dans config.toml est exactement https://api.lemondata.cc/v1
  • Vérifiez la connectivité réseau
  • Assurez-vous qu’aucun proxy n’interfère
  • Vérifiez que env_key = "OPENAI_API_KEY" est présent dans ~/.codex/config.toml
  • Vérifiez que la variable d’environnement OPENAI_API_KEY est définie
  • Vérifiez que la clé commence par sk-
  • Assurez-vous que la clé est active dans le tableau de bord LemonData
  • Vérifiez que le nom du modèle correspond exactement
  • Vérifiez la disponibilité du modèle sur lemondata.cc/en/models
  • Certains champs ne sont disponibles que sur /v1/responses lorsque LemonData peut garantir ce comportement pour le modèle et le chemin sélectionnés
  • Si vous voyez unsupported_request_field, supprimez ce champ ou passez à un flux de travail qui n’en dépend pas