النوع: إطار أو منصةالمسار الرئيسي: OpenAI-compatible via OpenAILikeمستوى الدعم: مدعوم عبر OpenAILike
بالنسبة إلى LemonData، فإن إعداد LlamaIndex الأكثر متانة هو استخدام تكاملات متوافقة مع OpenAI بدلًا من فئات OpenAI المدمجة.توصي وثائق LlamaIndex الحالية صراحةً باستخدام OpenAILike لنقاط النهاية التابعة لجهات خارجية والمتوافقة مع OpenAI، لأن فئات OpenAI المدمجة تستنتج البيانات الوصفية من أسماء النماذج الرسمية.بمعنى آخر: تعامل هنا مع OpenAILike باعتباره المسار المدعوم لـ LemonData، وليس فئات OpenAI المدمجة.
from llama_index.core.llms import ChatMessagemessages = [ ChatMessage(role="system", content="You are a helpful assistant."), ChatMessage(role="user", content="What is the capital of France?")]response = llm.chat(messages)print(response.message.content)
from llama_index.core import SimpleDirectoryReader, VectorStoreIndexdocuments = SimpleDirectoryReader("./data").load_data()index = VectorStoreIndex.from_documents(documents)query_engine = index.as_query_engine()response = query_engine.query("What is in my documents?")print(response)
chat_engine = index.as_chat_engine(chat_mode="condense_question")response = chat_engine.chat("What is LemonData?")print(response)response = chat_engine.chat("How many models does it support?")print(response)
يُفضَّل استخدام llama_index.llms.openai_like.OpenAILike و llama_index.embeddings.openai_like.OpenAILikeEmbedding مع LemonData وبوابات OpenAI-compatible الأخرى التابعة لجهات خارجية.
قم بتعيين api_base بشكل صريح
مرّر api_base="https://api.lemondata.cc/v1" مباشرةً في الكود بدلًا من الاعتماد على أسماء متغيرات البيئة القديمة الخاصة بـ OpenAI.
أبقِ أدوار النماذج منفصلة
استخدم نماذج chat/reasoning لعملية التوليف، واستخدم text-embedding-3-small أو text-embedding-3-large للاسترجاع.