Passer au contenu principal

Vue d’ensemble

Dify fonctionne bien avec LemonData grâce à son flux de flux de fournisseur de modèles compatible OpenAI. Pour les versions actuelles de Dify, l’approche la plus sûre est généralement la suivante :
  • choisir le fournisseur OpenAI intégré
  • définir votre clé API LemonData
  • définir une URL de base personnalisée sur https://api.lemondata.cc/v1
Certaines anciennes versions de Dify exposent cela comme OpenAI-API-compatible au lieu du fournisseur OpenAI intégré avec un champ d’URL de base personnalisée. Si votre interface Dify semble différente, utilisez le flux de fournisseur personnalisé compatible OpenAI le plus proche disponible dans cette version.
Type: Framework ou plateformeChemin principal: chemin de chat compatible avec OpenAINiveau de support: Pris en charge avec limites
Il s’agit d’un chemin d’intégration orienté chat-completions. Cela ne doit pas être compris comme une garantie que Dify expose les mêmes comportements Responses ou WebSocket que les intégrations Codex dédiées.

Prérequis

  • Compte LemonData avec accès API
  • Dify Cloud ou Dify auto-hébergé

Étapes de configuration

Étape 1 : Obtenir votre clé API

  1. Connectez-vous au tableau de bord LemonData
  2. Ouvrez API Keys
  3. Créez ou copiez une clé API qui commence par sk-

Étape 2 : Configurer le fournisseur

1

Ouvrir les fournisseurs de modèles

Dans Dify, accédez à SettingsModel Providers
2

Sélectionner OpenAI

Ouvrez les paramètres du fournisseur OpenAI. Si votre version de Dify ne propose pas ici d’URL de base personnalisée, utilisez à la place l’option de fournisseur personnalisé compatible OpenAI exposée par cette version.
3

Saisir les paramètres LemonData

Utilisez ces valeurs :
FieldValue
API Keysk-your-lemondata-key
API Base URL / Custom Base URLhttps://api.lemondata.cc/v1
4

Ajouter des modèles

Ajoutez les modèles que vous souhaitez utiliser, par exemple :
  • gpt-5.4
  • gpt-5-mini
  • gpt-4o
  • claude-sonnet-4-6
  • claude-opus-4-6
  • gemini-2.5-flash
  • gemini-2.5-pro
  • deepseek-r1

Étape 3 : Tester la connexion

  1. Choisissez un modèle tel que gpt-5-mini ou gpt-4o
  2. Envoyez un prompt de test
  3. Vérifiez que Dify reçoit une réponse valide

Embeddings pour les bases de connaissances

Pour le RAG et l’indexation des bases de connaissances, ajoutez un modèle d’embedding tel que :
  • text-embedding-3-small
  • text-embedding-3-large
Définissez-le ensuite comme modèle d’embedding par défaut dans les paramètres de la base de connaissances ou de l’application concernée.

Rôles de modèles recommandés

Use CaseSuggested Models
Default chatgpt-5.4, gpt-5-mini, gpt-4o
Deep reasoninggpt-5.4, claude-opus-4-6, deepseek-r1
Fast/cheapgpt-5-mini, gemini-2.5-flash
Embeddingstext-embedding-3-small, text-embedding-3-large

Bonnes pratiques

Dans les versions plus récentes de Dify, le fournisseur OpenAI intégré avec une URL de base personnalisée est généralement la configuration la plus propre pour LemonData.
Utilisez gpt-5-mini ou gemini-2.5-flash pendant l’itération, puis ne basculez les flux de travail plus lourds vers des modèles plus puissants que lorsque cela est nécessaire.
La plupart des flux Dify utilisent un comportement de chat compatible OpenAI. Si vous avez besoin de Responses spécifiques à Codex ou d’un comportement WebSocket, utilisez les intégrations Codex dédiées au lieu de Dify.

Dépannage

  • Vérifiez que l’URL de base est exactement https://api.lemondata.cc/v1
  • Supprimez les barres obliques finales si Dify les duplique
  • Vérifiez que le serveur Dify peut atteindre LemonData via l’internet public
  • Revérifiez la clé API
  • Vérifiez que la clé est active dans le tableau de bord LemonData
  • Assurez-vous que la valeur collée dans Dify ne contient pas d’espaces ou de sauts de ligne supplémentaires
  • Vérifiez exactement le nom du modèle
  • Ajoutez de nouveau l’entrée du modèle si l’interface du fournisseur a mis en cache une ancienne valeur
  • Vérifiez la disponibilité actuelle du modèle dans la documentation ou le tableau de bord LemonData