Saltar para o conteúdo principal

Overview

Tipo: Ferramenta de CodificaçãoCaminho Primário: OpenAI Responses (caminho opcional avançado)Confiança de Suporte: Suportado com limites de modelo/caminho
OpenAI Codex é uma ferramenta de linha de comando (CLI) open-source que atua como um agente de codificação leve, capaz de ler, modificar e executar código no terminal. É construída sobre modelos GPT e otimizada para geração de código. Para LemonData, o Codex CLI pode usar /v1/responses, mas você deve tratá-lo como um caminho de compatibilidade avançado. Algumas funcionalidades exclusivas do Responses não são garantidas em todos os modelos e rotas.

Requisitos do Sistema

  • OS: macOS, Linux (suporte oficial), Windows via WSL
  • Node.js: Versão 18+
  • npm: Versão 10.x.x ou superior

Instalação

npm install -g @openai/codex
Verifique a instalação:
codex --version

Configuração

Passo 1: Definir Chave de API

Temporário (sessão atual):
export OPENAI_API_KEY="sk-your-lemondata-key"
Configuração permanente: Adicione em ~/.bashrc, ~/.zshrc, ou ~/.bash_profile:
export OPENAI_API_KEY="sk-your-lemondata-key"
Em seguida recarregue:
source ~/.zshrc  # or source ~/.bashrc

Passo 2: Configure config.toml

Edite ~/.codex/config.toml:
model_provider = "lemondata"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
fast_mode = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
sandbox_mode = "danger-full-access"
approval_policy = "never"

disable_response_storage = false
personality = "friendly"
service_tier = "fast"

[model_providers.lemondata]
env_key = "OPENAI_API_KEY"
name = "lemondata"
base_url = "https://api.lemondata.cc/v1"
wire_api = "responses"
supports_websockets = true
websocket_connect_timeout_ms = 15000

[features]
responses_websockets = true
responses_websockets_v2 = true
Se o arquivo de configuração não existir, execute codex uma vez para gerá-lo, depois edite o arquivo. Reinicie o Codex completamente após alterar config.toml para que as novas configurações do provedor sejam recarregadas.
O Codex está desaprovando o suporte a chat/completions para provedores personalizados. Mantenha wire_api = "responses" para LemonData a menos que você esteja intencionalmente usando um caminho de compatibilidade mais antigo.
Se uma requisição usar campos exclusivos do Responses que não são suportados no modelo ou rota selecionados, a LemonData retorna um erro explícito em vez de rebaixar silenciosamente a requisição.

Uso Básico

Iniciar modo interativo:
codex
Comando direto:
codex "Fix the bug in main.py line 42"
Especificar modelo:
codex -m gpt-5.4 "Build a REST API server"

Modelos Recomendados

ModelBest For
gpt-5.4Melhor escolha padrão para codificação e raciocínio
gpt-5-miniAlternativa mais rápida e barata para fluxos de trabalho de codificação
claude-sonnet-4-6Revisão de código, documentação
deepseek-r1Design de algoritmos, raciocínio

Comandos Interativos

CommandDescription
/helpExibir ajuda
/exit or Ctrl+CSair
/clearLimpar conversa
/configVer configuração
/model <name>Trocar modelo
/tokensVer uso de tokens

Verificar Configuração

# Check environment variable
echo $OPENAI_API_KEY

# Test API connection
codex "Hello, Codex!"

# View configuration
cat ~/.codex/config.toml

Casos de Uso Comuns

Revisão de código:
git diff | codex "Review these code changes"
Gerar mensagens de commit:
git diff --staged | codex "Generate a commit message for these changes"
Corrigir erros:
codex "Fix the TypeScript errors in src/components/"
Explicar código:
cat main.py | codex "Explain what this code does"

Solução de Problemas

  • Verifique se base_url em config.toml está exatamente https://api.lemondata.cc/v1
  • Verifique a conectividade de rede
  • Certifique-se de que nenhum proxy esteja interferindo
  • Verifique se env_key = "OPENAI_API_KEY" está presente em ~/.codex/config.toml
  • Verifique se a variável de ambiente OPENAI_API_KEY está definida
  • Verifique se a chave começa com sk-
  • Certifique-se de que a chave está ativa no painel do LemonData
  • Verifique se o nome do modelo corresponde exatamente
  • Verifique a disponibilidade do modelo em lemondata.cc/en/models
  • Alguns campos estão disponíveis apenas em /v1/responses quando a LemonData pode garantir esse comportamento para o modelo e a rota selecionados
  • Se você vir unsupported_request_field, remova esse campo ou mude para um fluxo de trabalho que não dependa dele