Zum Hauptinhalt springen

Übersicht

Dify ist eine Open-Source-Plattform zur Entwicklung von LLM-Anwendungen. Sie bietet visuelle Prompt-Orchestrierung, RAG-Pipelines, Agent-Frameworks und LLMOps-Funktionen. LemonData kann als benutzerdefinierter Modellanbieter in Dify konfiguriert werden.

Vorteile

  • Zugriff auf über 300 KI-Modelle über eine einzige Schnittstelle
  • Wechseln zwischen Modellen ohne Änderung der Anwendungslogik
  • Kostenoptimierung durch Auswahl des besten Modells für jede Aufgabe
  • Einheitliche Abrechnung und Nutzungsverfolgung

Voraussetzungen

  • LemonData-Konto mit API-Zugriff
  • Dify-Installation (Cloud oder selbst gehostet)

Konfigurationsschritte

Schritt 1: API-Key abrufen

  1. Melden Sie sich im LemonData Dashboard an
  2. Navigieren Sie zu API Keys
  3. Erstellen und kopieren Sie Ihren API-Key (Format: sk-...)

Schritt 2: Benutzerdefinierten Modellanbieter hinzufügen

1

Einstellungen öffnen

Gehen Sie in Dify zu SettingsModel Provider
2

OpenAI-kompatiblen Anbieter hinzufügen

Klicken Sie auf Add Model Provider und wählen Sie OpenAI-API-compatible
3

Anbieter konfigurieren

Geben Sie die folgenden Einstellungen ein:
FeldWert
AnbieternameLemonData
API Keysk-your-lemondata-key
API Base URLhttps://api.lemondata.cc/v1
4

Modelle hinzufügen

Fügen Sie die Modelle hinzu, die Sie verwenden möchten:
  • gpt-4o
  • gpt-4o-mini
  • claude-sonnet-4-5
  • claude-opus-4-5
  • gemini-2.5-flash
  • gemini-2.5-pro
  • deepseek-r1

Schritt 3: Verbindung testen

  1. Wählen Sie ein Modell aus (z. B. gpt-4o-mini)
  2. Senden Sie eine Testnachricht
  3. Überprüfen Sie, ob Sie eine Antwort erhalten

Verwendung in Anwendungen

Chatbot

  1. Erstellen Sie eine neue Chatbot-Anwendung
  2. Wählen Sie LemonData als Modellanbieter aus
  3. Wählen Sie Ihr bevorzugtes Modell
  4. Konfigurieren Sie System-Prompt und Parameter

Agent

  1. Erstellen Sie eine Agent-Anwendung
  2. Wählen Sie ein leistungsfähiges Modell (GPT-4o, Claude)
  3. Fügen Sie Tools und Wissensdatenbanken hinzu
  4. Konfigurieren Sie das Verhalten des Agents

Workflow

  1. Erstellen Sie einen Workflow
  2. Fügen Sie LLM-Knoten hinzu
  3. Wählen Sie LemonData-Modelle für jeden Knoten aus
  4. Verbinden Sie die Knoten und konfigurieren Sie den Datenfluss

Verfügbare Modelle

KategorieModelle
ChatGPT-4o, GPT-4o-mini, Claude Sonnet/Opus, Gemini, DeepSeek
Embeddingstext-embedding-3-small, text-embedding-3-large
VisionGPT-4o (mit Bildern), Claude Sonnet (mit Bildern)

RAG-Konfiguration

Konfigurieren Sie für RAG-Anwendungen die Embeddings:
  1. Gehen Sie zu SettingsModel Provider
  2. Fügen Sie das Embedding-Modell hinzu: text-embedding-3-small
  3. Als Standard-Embedding-Modell in den Einstellungen der Wissensdatenbank festlegen

Best Practices

Verwenden Sie GPT-4o-mini für Tests und Entwicklung, wechseln Sie für die Produktion zu leistungsstärkeren Modellen.
Konfigurieren Sie verschiedene Modelle für unterschiedliche Aufgaben – schnelle Modelle für einfache Abfragen, leistungsstarke Modelle für komplexe logische Schlussfolgerungen.
Nutzen Sie die LLMOps-Funktionen von Dify zusammen mit dem LemonData-Dashboard, um Kosten und Leistung zu verfolgen.

Fehlerbehebung

  • Überprüfen Sie, ob die API Base URL exakt https://api.lemondata.cc/v1 entspricht
  • Prüfen Sie auf abschließende Schrägstriche
  • Überprüfen Sie die Netzwerkkonnektivität
  • Überprüfen Sie den API-Key erneut
  • Stellen Sie sicher, dass der Key im LemonData-Dashboard aktiv ist
  • Überprüfen Sie, ob der Modellname exakt übereinstimmt
  • Prüfen Sie die Modellverfügbarkeit unter lemondata.cc/en/models