Passer au contenu principal

Présentation

Dify est une plateforme de développement d’applications LLM open-source. Elle propose l’orchestration visuelle de prompts, des pipelines RAG, des frameworks d’agents et des fonctionnalités LLMOps. LemonData peut être configuré comme un fournisseur de modèles personnalisé dans Dify.

Avantages

  • Accédez à plus de 300 modèles d’IA via une interface unique
  • Basculez entre les modèles sans modifier la logique de l’application
  • Optimisez les coûts en sélectionnant le meilleur modèle pour chaque tâche
  • Facturation unifiée et suivi de l’utilisation

Prérequis

  • Compte LemonData avec accès API
  • Installation de Dify (cloud ou auto-hébergée)

Étapes de configuration

Étape 1 : Obtenir votre clé API

  1. Connectez-vous au Tableau de bord LemonData
  2. Accédez aux Clés API
  3. Créez et copiez votre clé API (format : sk-...)

Étape 2 : Ajouter un fournisseur de modèles personnalisé

1

Ouvrir les paramètres

Dans Dify, allez dans SettingsModel Provider
2

Ajouter un fournisseur compatible OpenAI

Cliquez sur Add Model Provider et sélectionnez OpenAI-API-compatible
3

Configurer le fournisseur

Saisissez les paramètres suivants :
ChampValeur
Provider NameLemonData
API Keysk-your-lemondata-key
API Base URLhttps://api.lemondata.cc/v1
4

Ajouter des modèles

Ajoutez les modèles que vous souhaitez utiliser :
  • gpt-4o
  • gpt-4o-mini
  • claude-sonnet-4-5
  • claude-opus-4-5
  • gemini-2.5-flash
  • gemini-2.5-pro
  • deepseek-r1

Étape 3 : Tester la connexion

  1. Sélectionnez un modèle (par ex., gpt-4o-mini)
  2. Envoyez un message de test
  3. Vérifiez que vous recevez une réponse

Utilisation dans les applications

Chatbot

  1. Créez une nouvelle application Chatbot
  2. Sélectionnez LemonData comme fournisseur de modèles
  3. Choisissez votre modèle préféré
  4. Configurez le prompt système et les paramètres

Agent

  1. Créez une application Agent
  2. Sélectionnez un modèle performant (GPT-4o, Claude)
  3. Ajoutez des outils et des bases de connaissances
  4. Configurez le comportement de l’agent

Workflow

  1. Créez un Workflow
  2. Ajoutez des nœuds LLM
  3. Sélectionnez des modèles LemonData pour chaque nœud
  4. Connectez les nœuds et configurez le flux de données

Modèles disponibles

CatégorieModèles
ChatGPT-4o, GPT-4o-mini, Claude Sonnet/Opus, Gemini, DeepSeek
Embeddingstext-embedding-3-small, text-embedding-3-large
VisionGPT-4o (avec images), Claude Sonnet (avec images)

Configuration RAG

Pour les applications RAG, configurez les embeddings :
  1. Allez dans SettingsModel Provider
  2. Ajoutez le modèle d’embedding : text-embedding-3-small
  3. Définissez-le comme modèle d’embedding par défaut dans les paramètres de la base de connaissances

Bonnes pratiques

Utilisez GPT-4o-mini pour les tests et le développement, puis passez à des modèles plus puissants pour la production.
Configurez différents modèles pour différentes tâches : des modèles rapides pour les requêtes simples, des modèles puissants pour le raisonnement complexe.
Utilisez les fonctionnalités LLMOps de Dify parallèlement au tableau de bord LemonData pour suivre les coûts et les performances.

Dépannage

  • Vérifiez que l’URL de base de l’API est exactement https://api.lemondata.cc/v1
  • Vérifiez l’absence de barres obliques (slashes) à la fin
  • Vérifiez la connectivité réseau
  • Vérifiez à nouveau la clé API
  • Assurez-vous que la clé est active dans le tableau de bord LemonData
  • Vérifiez que le nom du modèle correspond exactement
  • Vérifiez la disponibilité des modèles sur lemondata.cc/en/models