Überblick
LemonData funktioniert gut mit den LangChain-IntegrationenChatOpenAI und OpenAIEmbeddings, wenn Sie bei der standardmäßigen OpenAI-kompatiblen Oberfläche für Chat und Embeddings bleiben.
In der aktuellen LangChain-Dokumentation wird darauf hingewiesen, dass
ChatOpenAI auf offizielle OpenAI-kompatible Request-/Response-Formate abzielt. Wenn Sie anbieterspezifische, nicht standardisierte Response-Felder benötigen, verwenden Sie eine anbieterspezifische LangChain-Integration, anstatt sich auf ChatOpenAI zu verlassen.Typ: Framework oder PlattformPrimärer Pfad: OpenAI-kompatible StandardsurfaceSupport-Niveau: Standardsurface unterstützt
Installation
Grundkonfiguration
Verwendung verschiedener Modelle
Nachrichtenverlauf
Streaming
Embeddings
Einfaches RAG-Beispiel
Agents
Für neue agentische Projekte empfiehlt LangChain, LangGraph für eine explizitere Kontrolle über langlaufende und Tool-verwendende Workflows in Betracht zu ziehen.
Best Practices
`base_url` explizit übergeben
`base_url` explizit übergeben
Die zuverlässigste LemonData-Konfiguration besteht darin,
base_url="https://api.lemondata.cc/v1" direkt an ChatOpenAI und OpenAIEmbeddings zu übergeben, anstatt von älteren Aliassen für Umgebungsvariablen abhängig zu sein.Hier standardmäßige Funktionen verwenden
Hier standardmäßige Funktionen verwenden
Bleiben Sie bei standardmäßigem Chat, Tool Calling, Streaming und Embeddings in
ChatOpenAI. Wenn Sie anbieterspezifische Extras benötigen, wechseln Sie zur eigenen LangChain-Integration des Anbieters.Günstigere Modelle für Retrieval verwenden
Günstigere Modelle für Retrieval verwenden
Verwenden Sie Embedding-Modelle wie
text-embedding-3-small für Retrieval und reservieren Sie leistungsstärkere Chat-Modelle für den abschließenden Antwortschritt.