Tür: Framework veya platformBirincil yol: OpenAI-compatible via OpenAILikeDestek seviyesi: OpenAILike üzerinden desteklenir
LemonData için daha sağlam LlamaIndex kurulumu, yerleşik OpenAI sınıfları yerine OpenAI-compatible integrations kullanmaktır.Mevcut LlamaIndex dokümantasyonu, yerleşik OpenAI sınıflarının resmi model adlarından metadata çıkarması nedeniyle, üçüncü taraf OpenAI-compatible endpoint’leri için açıkça OpenAILike kullanılmasını önerir.Başka bir deyişle: burada OpenAILike yolunu LemonData için desteklenen yol olarak görün; yerleşik OpenAI sınıflarını değil.
from llama_index.core.llms import ChatMessagemessages = [ ChatMessage(role="system", content="You are a helpful assistant."), ChatMessage(role="user", content="What is the capital of France?")]response = llm.chat(messages)print(response.message.content)
from llama_index.core import SimpleDirectoryReader, VectorStoreIndexdocuments = SimpleDirectoryReader("./data").load_data()index = VectorStoreIndex.from_documents(documents)query_engine = index.as_query_engine()response = query_engine.query("What is in my documents?")print(response)
chat_engine = index.as_chat_engine(chat_mode="condense_question")response = chat_engine.chat("What is LemonData?")print(response)response = chat_engine.chat("How many models does it support?")print(response)
LemonData ve diğer üçüncü taraf OpenAI-compatible gateway’ler için llama_index.llms.openai_like.OpenAILike ve llama_index.embeddings.openai_like.OpenAILikeEmbedding kullanmayı tercih edin.
api_base değerini açıkça ayarlayın
Eski OpenAI environment-variable adlarına güvenmek yerine api_base="https://api.lemondata.cc/v1" değerini doğrudan kod içinde iletin.
Model rollerini ayrı tutun
Sentez için chat/reasoning modellerini, retrieval için ise text-embedding-3-small veya text-embedding-3-large kullanın.