الانتقال إلى المحتوى الرئيسي

نظرة عامة

النوع: أداة برمجةالمسار الأساسي: OpenAI Responses (مسار اختياري متقدم)ثقة الدعم: مدعوم مع قيود على النموذج/المسار
OpenAI Codex هو أداة مفتوحة المصدر لسطر الأوامر (CLI) تعمل كوكيل برمجي خفيف الوزن، قادر على قراءة الكود وتعديله وتشغيله في الطرفية. تم بناؤه على نماذج GPT ومحسّن لتوليد الشيفرة. بالنسبة لـ LemonData، يمكن لـ Codex CLI استخدام /v1/responses، لكن يجب اعتباره مسار توافق متقدم. بعض ميزات Responses-only غير مضمونة عبر كل نموذج ومسار موجه.

متطلبات النظام

  • OS: macOS, Linux (دعم رسمي)، Windows عبر WSL
  • Node.js: الإصدار 18+
  • npm: الإصدار 10.x.x أو أعلى

التثبيت

npm install -g @openai/codex
التحقق من التثبيت:
codex --version

التكوين

الخطوة 1: تعيين مفتاح API

مؤقت (الجلسة الحالية):
export OPENAI_API_KEY="sk-your-lemondata-key"
تكوين دائم: أضف إلى ~/.bashrc، ~/.zshrc، أو ~/.bash_profile:
export OPENAI_API_KEY="sk-your-lemondata-key"
ثم أعد التحميل:
source ~/.zshrc  # or source ~/.bashrc

الخطوة 2: تكوين config.toml

حرر ~/.codex/config.toml:
model_provider = "lemondata"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
fast_mode = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
sandbox_mode = "danger-full-access"
approval_policy = "never"

disable_response_storage = false
personality = "friendly"
service_tier = "fast"

[model_providers.lemondata]
env_key = "OPENAI_API_KEY"
name = "lemondata"
base_url = "https://api.lemondata.cc/v1"
wire_api = "responses"
supports_websockets = true
websocket_connect_timeout_ms = 15000

[features]
responses_websockets = true
responses_websockets_v2 = true
إذا لم يكن ملف التكوين موجودًا، شغّل codex مرة واحدة لتوليده، ثم حرر الملف. أعد تشغيل Codex بالكامل بعد تغيير config.toml حتى تُعاد تحميل إعدادات الموفر الجديدة.
Codex يتخلى تدريجيًا عن دعم chat/completions لمزودي الخدمات المخصصين. احتفظ بـ wire_api = "responses" لـ LemonData ما لم تكن تستخدم عن قصد مسار توافق قديم.
إذا استخدم الطلب حقولًا خاصة بـ Responses-only غير مدعومة على النموذج أو المسار المحدد، تعيد LemonData خطأً صريحًا بدلاً من تخفيض الطلب بهدوء.

الاستخدام الأساسي

بدء الوضع التفاعلي:
codex
أمر مباشر:
codex "Fix the bug in main.py line 42"
تحديد النموذج:
codex -m gpt-5.4 "Build a REST API server"

النماذج الموصى بها

النموذجالأفضل لـ
gpt-5.4أفضل خيار افتراضي للترميز والتفكير المنطقي
gpt-5-miniبديل أسرع وأرخص لسير عمل الترميز
claude-sonnet-4-6مراجعة الشيفرة، التوثيق
deepseek-r1تصميم الخوارزميات، التفكير المنطقي

الأوامر التفاعلية

الأمرالوصف
/helpعرض المساعدة
/exit or Ctrl+Cالخروج
/clearمسح المحادثة
/configعرض التكوين
/model <name>تبديل النموذج
/tokensعرض استخدام التوكنات

التحقق من التكوين

# Check environment variable
echo $OPENAI_API_KEY

# Test API connection
codex "Hello, Codex!"

# View configuration
cat ~/.codex/config.toml

حالات استخدام شائعة

مراجعة الشيفرة:
git diff | codex "Review these code changes"
توليد رسائل الالتزام:
git diff --staged | codex "Generate a commit message for these changes"
إصلاح الأخطاء:
codex "Fix the TypeScript errors in src/components/"
شرح الشيفرة:
cat main.py | codex "Explain what this code does"

استكشاف الأخطاء وإصلاحها

  • تحقق أن base_url في config.toml هو بالضبط https://api.lemondata.cc/v1
  • تحقق من اتصال الشبكة
  • تأكد من عدم وجود تداخل بروكسي
  • تحقق من وجود env_key = \"OPENAI_API_KEY\" في ~/.codex/config.toml
  • تحقق من تعيين متغير البيئة OPENAI_API_KEY
  • تأكد من أن المفتاح يبدأ بـ sk-
  • تأكد من أن المفتاح نشط في لوحة تحكم LemonData
  • تحقق أن اسم النموذج يطابق بالضبط
  • تحقق من توفر النموذج على lemondata.cc/en/models
  • بعض الحقول متاحة فقط على /v1/responses عندما يمكن لـ LemonData ضمان هذا السلوك للنموذج والمسار المحددين
  • إذا رأيت unsupported_request_field، احذف ذلك الحقل أو انتقل إلى سير عمل لا يعتمد عليه