يعمل LemonData بشكل جيد مع تكاملات ChatOpenAI و OpenAIEmbeddings في LangChain عندما تلتزم بواجهة chat و embeddings القياسية المتوافقة مع OpenAI.
تشير وثائق LangChain الحالية إلى أن ChatOpenAI يستهدف أشكال الطلب/الاستجابة الرسمية المتوافقة مع OpenAI. إذا كنت تحتاج إلى حقول استجابة غير قياسية وخاصة بمزوّد معين، فاستخدم تكامل LangChain خاصًا بذلك المزوّد بدلًا من الاعتماد على ChatOpenAI.
النوع: إطار أو منصةالمسار الرئيسي: السطح القياسي المتوافق مع OpenAIمستوى الدعم: السطح القياسي مدعوم
تغطي هذه الصفحة عمدًا السطح القياسي المتوافق مع OpenAI في LangChain فقط، ولا تمتد إلى ميزات LangChain الأصلية الخاصة بالمزوّد خارج هذا النطاق.
from langchain_openai import ChatOpenAIllm = ChatOpenAI( model="gpt-5.4", api_key="sk-your-lemondata-key", base_url="https://api.lemondata.cc/v1",)response = llm.invoke("Explain LemonData in one sentence.")print(response.content)
from langchain_core.messages import HumanMessage, SystemMessagemessages = [ SystemMessage(content="You are a helpful assistant."), HumanMessage(content="What is the capital of France?")]response = llm.invoke(messages)print(response.content)
الإعداد الأكثر موثوقية لـ LemonData هو تمرير base_url="https://api.lemondata.cc/v1" مباشرةً إلى ChatOpenAI و OpenAIEmbeddings بدلًا من الاعتماد على الأسماء المستعارة الأقدم لمتغيرات البيئة.
استخدم الميزات القياسية هنا
التزم بميزات chat القياسية، واستدعاء الأدوات، والبث، و embeddings على ChatOpenAI. إذا كنت تحتاج إلى إضافات أصلية خاصة بالمورّد، فانتقل إلى تكامل LangChain الخاص بذلك المورّد.
استخدم نماذج أقل تكلفة للاسترجاع
استخدم نماذج embedding مثل text-embedding-3-small للاسترجاع، واحتفِظ بنماذج chat الأقوى لخطوة الإجابة النهائية.