
Commencez votre aventure avec l’IA dès aujourd’hui
- Accédez à plus de 100 API d’IA sur une seule plateforme.
- Comparez et déployez des modèles d’IA en toute simplicité.
- Paiement à l’usage, sans frais initiaux.
Ce guide explique comment utiliser le gestionnaire de prompts d'Eden AI pour une gestion efficace des prompts LLM. Il explique comment créer, tester et optimiser les invites grâce à l'intégration d'API via FastAPI, y compris des fonctionnalités telles que le contrôle de version, les tests A/B et la gestion des erreurs.
Alors que les grands modèles linguistiques (LLM) font partie intégrante des produits de tous les secteurs, l'ingénierie rapide est devenue une discipline essentielle. Mais la gestion des invites ne consiste pas seulement à créer des phrases intelligentes, elle implique également des itérations, des tests, un contrôle de version et un suivi des performances.
Dans cet article de blog, nous aborderons le Prompt Manager d'Eden AI, un outil conçu pour rationaliser l'ensemble du cycle de vie des invites, y compris la création, les tests A/B et l'exécution basée sur des API.
Que vous soyez ingénieur, data scientist ou passionné de prompts, cette présentation détaillée vous permettra de gérer les invites comme un pro.
Pour une expérience d'apprentissage pratique, vous pouvez également regarder notre vidéo YouTube sur notre Chaîne Youtube d'Eden AI, où Krishna, notre Developer Advocate, vous explique ce didacticiel étape par étape afin que vous puissiez le suivre tout au long de la création et du test de votre propre API de gestion rapide.
Nous allons vous expliquer :
L'ingénierie rapide est à la fois un art et une science. Mais même des instructions bien rédigées peuvent être moins performantes dans des applications réelles. Sans méthode structurée pour les gérer, les équipes :
Eden AI résout ces défis grâce à une Gestionnaire rapide qui agit comme GitHub pour les invites, fournissant des outils de création, de stockage, de test et d'analyse, tous accessibles via une interface utilisateur et une API.
Le Prompt Manager d'Eden AI vous permet de :
Vous pouvez l'utiliser visuellement (via leur tableau de bord) ou par programmation à l'aide d'une API, cette dernière étant idéale pour les tests automatisés, les pipelines CI/CD ou les moteurs d'orchestration rapides.
Le code de démonstration fourni dans la vidéo permet de configurer Service proxy FastAPI qui s'interface avec le backend d'Eden AI. Cela est utile pour extraire les informations d'identification et les demandes de routage de la logique de votre application.
Tout d'abord, assurez-vous de disposer d'un fichier .env contenant votre clé d'API Eden AI :
Le code le charge en toute sécurité à l'aide de python-dotenv :
Décrivons maintenant l'ensemble des fonctionnalités implémentées dans custom_prompts.py.
Vous pouvez récupérer toutes les instructions stockées dans votre tableau de bord Eden AI grâce à la pagination :
Ce point de terminaison transmet les requêtes GET par proxy à :
Utile pour répertorier les versions disponibles ou les instructions utilisées dans différents cas d'utilisation.
Pour définir une nouvelle invite avec des variables de modèle, envoyez une requête POST à l'adresse suivante :
Exemple de corps de requête :
Cela permet d'obtenir des invites structurées et réutilisables avec des espaces réservés (par exemple {{text}}).
Récupérez n'importe quelle invite individuelle par son nom :
Cela permet de charger le modèle complet, y compris l'historique des versions et les métadonnées.
Une fois qu'une invite est définie, testez-la en envoyant des valeurs pour ses variables :
Exemple de corps :
Eden AI remplacera la variable et l'enverra au fournisseur LLM choisi, en renvoyant la réponse.
Les instructions peuvent être mises à jour à l'aide de l'une des méthodes suivantes :
Les deux points de terminaison :
sont acheminés vers l'API d'Eden AI, maintenant la synchronisation entre votre service local et la boutique rapide d'Eden AI.
Supprimez une invite lorsqu'elle est obsolète ou n'est plus nécessaire :
Renvoie une réponse 204 No Content en cas de succès.
Le contrôle de version est l'un des principaux avantages du gestionnaire d'instantanés d'Eden AI. Chaque fois que vous modifiez une invite et que vous souhaitez tester les performances, vous pouvez créer une entrée d'historique versionnée :
Cela vous permet de :
Vous pouvez récupérer, mettre à jour ou supprimer ces entrées d'historique en utilisant :
Vous pouvez même extraire des variables de modèle à partir de n'importe quelle version avec :
Tous les terminaux incluent une gestion robuste des erreurs pour :
Par exemple, si Eden AI renvoie une erreur :
Cela garantit que la couche FastAPI reste propre et stable.
Pour exécuter l'application localement, procédez comme suit :
Une fois en ligne, vous pouvez utiliser Postman ou Curl pour tester tous les endpoints. Mieux encore, connectez-le à votre application pour récupérer et exécuter dynamiquement les instructions d'Eden AI.
Le Prompt Manager d'Eden AI n'est pas simplement une solution de stockage, c'est une plateforme de cycle de vie complet pour l'optimisation des temps de LLM. En combinant une interface utilisateur puissante avec une API flexible, il permet une ingénierie rapide évolutive, collaborative et axée sur les performances.
Avec le proxy FastAPI, vous pouvez :
Que vous créiez un chatbot, un outil de synthèse ou un générateur de contenu, la gestion rapide sera cruciale pour la qualité et la cohérence, et Eden AI fournit l'une des solutions les plus conviviales pour les développeurs du secteur.
Vous pouvez commencer à créer dès maintenant. Si vous avez des questions, n'hésitez pas à discuter avec nous !
CommencezContactez le service commercial