Vue d’ensemble
Pour LemonData, la configuration LlamaIndex la plus robuste consiste à utiliser des intégrations compatibles OpenAI au lieu des classes OpenAI intégrées. La documentation actuelle de LlamaIndex recommande explicitementOpenAILike pour les endpoints tiers compatibles OpenAI, car les classes OpenAI intégrées déduisent les métadonnées à partir des noms de modèles officiels.
Autrement dit, considérez ici OpenAILike comme le chemin pris en charge pour LemonData, et non les classes OpenAI intégrées.
Installation
Configuration de base
Utilisation de base
Chat
Streaming
Embeddings
RAG avec des documents
Moteur de chat
Utilisation asynchrone
Bonnes pratiques
Utiliser OpenAILike pour LemonData
Utiliser OpenAILike pour LemonData
Préférez
llama_index.llms.openai_like.OpenAILike et llama_index.embeddings.openai_like.OpenAILikeEmbedding pour LemonData et les autres gateways tiers compatibles OpenAI.Définir api_base explicitement
Définir api_base explicitement
Passez
api_base="https://api.lemondata.cc/v1" directement dans le code au lieu de vous appuyer sur les anciens noms de variables d’environnement OpenAI.Séparer les rôles des modèles
Séparer les rôles des modèles
Utilisez des modèles de chat/raisonnement pour la synthèse et
text-embedding-3-small ou text-embedding-3-large pour la récupération.