Vue d’ensemble
LemonData fonctionne bien avec les intégrationsChatOpenAI et OpenAIEmbeddings de LangChain lorsque vous restez sur la surface standard de chat et d’embeddings compatible OpenAI.
La documentation actuelle de LangChain indique que
ChatOpenAI cible les formats standard de requête/réponse compatibles avec OpenAI. Si vous avez besoin de champs de réponse spécifiques à un fournisseur et non standard, utilisez plutôt une intégration LangChain spécifique à ce fournisseur au lieu de vous appuyer sur ChatOpenAI.Type: Framework ou plateformeChemin principal: surface standard compatible avec OpenAINiveau de support: Surface standard prise en charge
Installation
Configuration de base
Utilisation de différents modèles
Historique des messages
Streaming
Embeddings
Exemple simple de RAG
Agents
Pour les nouveaux projets agentiques, LangChain recommande d’envisager LangGraph afin d’obtenir un contrôle plus explicite sur les flux de travail de longue durée et utilisant des outils.
Bonnes pratiques
Transmettre `base_url` explicitement
Transmettre `base_url` explicitement
La configuration LemonData la plus fiable consiste à transmettre
base_url="https://api.lemondata.cc/v1" directement à ChatOpenAI et OpenAIEmbeddings au lieu de dépendre d’anciens alias de variables d’environnement.Utiliser ici les fonctionnalités standard
Utiliser ici les fonctionnalités standard
Tenez-vous-en au chat standard, à l’appel d’outils, au streaming et aux embeddings sur
ChatOpenAI. Si vous avez besoin d’extensions natives propres à un fournisseur, passez à l’intégration LangChain du fournisseur concerné.Utiliser des modèles moins coûteux pour la récupération
Utiliser des modèles moins coûteux pour la récupération
Utilisez des modèles d’embedding comme
text-embedding-3-small pour la récupération et réservez des modèles de chat plus puissants pour l’étape de réponse finale.