メインコンテンツへスキップ

概要

種類: コーディングツール主要パス: OpenAI Responses(高度なオプション経路)サポート信頼度: モデル/パスの制限ありでサポート
OpenAI Codexは、ターミナル上でコードを読み取り、修正し、実行する軽量なコーディングエージェントとして機能するオープンソースのコマンドラインツール(CLI)です。GPTモデルに基づいて構築され、コード生成に最適化されています。 LemonData向けに、Codex CLIは/v1/responsesを使用できますが、これは上級の互換性経路として扱うべきです。Responses専用の一部機能は、すべてのモデルやルートで保証されるわけではありません。

システム要件

  • OS: macOS、Linux(公式サポート)、Windows は WSL 経由
  • Node.js: バージョン18以上
  • npm: バージョン10.x.x以上

インストール

npm install -g @openai/codex
インストール確認:
codex --version

設定

ステップ1: APIキーを設定

一時的(現在のセッション):
export OPENAI_API_KEY="sk-your-lemondata-key"
恒久的な設定: ~/.bashrc, ~/.zshrc, または ~/.bash_profile に追加:
export OPENAI_API_KEY="sk-your-lemondata-key"
その後リロード:
source ~/.zshrc  # or source ~/.bashrc

ステップ2: config.toml を設定

~/.codex/config.toml を編集:
model_provider = "lemondata"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
fast_mode = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
sandbox_mode = "danger-full-access"
approval_policy = "never"

disable_response_storage = false
personality = "friendly"
service_tier = "fast"

[model_providers.lemondata]
env_key = "OPENAI_API_KEY"
name = "lemondata"
base_url = "https://api.lemondata.cc/v1"
wire_api = "responses"
supports_websockets = true
websocket_connect_timeout_ms = 15000

[features]
responses_websockets = true
responses_websockets_v2 = true
configファイルが存在しない場合は、一度codexを実行して生成し、その後ファイルを編集してください。config.tomlを変更したら、プロバイダ設定が再読み込みされるようにCodexを完全に再起動してください。
Codexはカスタムプロバイダ向けのchat/completionsサポートを廃止しつつあります。LemonDataでは意図的に古い互換経路を使用していない限り、wire_api = "responses"を維持してください。
リクエストが選択したモデルやルートでサポートされないResponses専用フィールドを使用している場合、LemonDataはリクエストを静かにダウングレードするのではなく、明示的なエラーを返します。

基本的な使い方

対話モードを開始:
codex
直接コマンド:
codex "Fix the bug in main.py line 42"
モデルを指定:
codex -m gpt-5.4 "Build a REST API server"

推奨モデル

ModelBest For
gpt-5.4コーディングと推論のデフォルトとして最適
gpt-5-miniコーディングワークフロー向けの高速で安価なフォールバック
claude-sonnet-4-6コードレビュー、ドキュメント作成
deepseek-r1アルゴリズム設計、推論

インタラクティブコマンド

CommandDescription
/helpヘルプを表示
/exit or Ctrl+C終了
/clear会話をクリア
/config設定を表示
/model <name>モデルを切り替え
/tokensトークン使用量を表示

設定の確認

# Check environment variable
echo $OPENAI_API_KEY

# Test API connection
codex "Hello, Codex!"

# View configuration
cat ~/.codex/config.toml

よくあるユースケース

コードレビュー:
git diff | codex "Review these code changes"
コミットメッセージ生成:
git diff --staged | codex "Generate a commit message for these changes"
エラー修正:
codex "Fix the TypeScript errors in src/components/"
コードの説明:
cat main.py | codex "Explain what this code does"

トラブルシューティング

  • config.tomlbase_url が正確に https://api.lemondata.cc/v1 であることを確認してください
  • ネットワーク接続を確認してください
  • プロキシの干渉がないことを確認してください
  • ~/.codex/config.tomlenv_key = "OPENAI_API_KEY" が存在することを確認してください
  • OPENAI_API_KEY 環境変数が設定されていることを確認してください
  • キーが sk- で始まっていることを確認してください
  • LemonDataダッシュボードでキーが有効であることを確認してください
  • モデル名が完全に一致しているか確認してください
  • モデルの可用性を lemondata.cc/en/models で確認してください
  • 一部のフィールドは、LemonDataが選択されたモデルとルートでその動作を保証できる場合にのみ/v1/responsesで利用可能です
  • unsupported_request_field が表示された場合、そのフィールドを削除するか、それに依存しないワークフローに切り替えてください