
Commencez votre aventure avec l’IA dès aujourd’hui
- Accédez à plus de 100 API d’IA sur une seule plateforme.
- Comparez et déployez des modèles d’IA en toute simplicité.
- Paiement à l’usage, sans frais initiaux.
Vous avez assez de jongler avec les différentes API LLM ? Ce didacticiel explique comment créer un backend FastAPI à l'aide du point de terminaison unifié d'Eden AI, en prenant en charge les modèles de texte et d'image des principaux fournisseurs tels qu'OpenAI et Google, le tout via une seule API compatible avec OpenAI.
Les développeurs et les organisations sont confrontés à un défi de plus en plus complexe : comment intégrer une variété croissante de grands modèles de langage (LLM) sans compromettre la vitesse, la fiabilité ou l'expérience utilisateur.
Chaque fournisseur (OpenAI, Anthropic, Google, Mistral et bien d'autres) propose de puissantes fonctionnalités, mais également des API, des formats de requête et des exigences d'intégration différentes.
Au-delà de cela, l'IA ne se limite plus au texte ; de nombreux fournisseurs proposent désormais multimodaux models qui combinent du texte, des images et d'autres types de données, chacun nécessitant souvent sa propre gestion.
Pour les développeurs, cela implique non seulement de changer constamment de fournisseur, mais aussi d'adapter les flux de travail aux différents types d'entrées et de sorties, un processus qui fait perdre du temps, augmente la complexité et détourne l'attention de la création de produits de qualité.
Nous pensions qu'il devait y avoir une meilleure solution.
Nous l'avons donc construit.
Aujourd'hui, nous sommes ravis de vous présenter notre nouveau point de terminaison LLM unifié: une solution conçue dès le départ pour permettre de travailler avec les meilleurs modèles d'IA sans effort, de manière évolutive et pérenne.
Au cœur de ce nouveau système se trouve une idée simple mais puissante : une interface unique compatible avec OpenAI qui fournit un accès direct et transparent à tous les principaux fournisseurs de LLM. This terminal is not only for text generation, but also for text generation interaction multimodale complète, prenant en charge à la fois le traitement du texte et des images via un appel d'API unique et cohérent.
Les développeurs peuvent désormais passer facilement d'un modèle à l'autre, voire d'une modalité à l'autre, sans perturber leurs flux de travail existants, tout en utilisant la structure familière de l'API OpenAI.
Il ne s'agit pas d'un simple agrégateur ou d'un autre wrapper. Il s'agit d'une API entièrement professionnelle, prête pour la production, qui vous permet de vous connecter à l'avenir de l'IA avec les mêmes outils et flux de travail que vous utilisez déjà aujourd'hui. Pas de drame, pas de réécriture, pas de flux de travail fragmentés.
Dans ce didacticiel, vous verrez notre nouveau terminal en action et apprendrez à créer une puissante API Web avec FastAPI qui s'intègre parfaitement à Eden AI, fournissant un accès unifié à une gamme de services d'IA, de la génération de texte à l'analyse d'images, via un point de discussion multimodal unique compatible avec OpenAI.
Pour une description détaillée de ce didacticiel, n'oubliez pas de regarder notre vidéo sur Chaîne YouTube d'Eden AI.
Que vous soyez débutant ou que vous commenciez tout juste à utiliser les API et l'intégration de l'IA, ce guide vous expliquera étape par étape, de la configuration de l'environnement à l'écriture du code et à la compréhension du fonctionnement de chaque ligne.
Eden AI est une passerelle API unifiée pour les services d'intelligence artificielle. Au lieu de s'intégrer séparément à des fournisseurs tels qu'OpenAI, Cohere ou Stability AI, Eden AI fait office de passerelle en fournissant un format d'API unique pour interagir avec plusieurs fournisseurs et modèles.
Cela simplifie considérablement l'expérience des développeurs :
Pour les développeurs et les entreprises, cela signifie que vous pouvez :
💡 Conseil d'installation : Installez les dépendances avec :
Créez un nouveau dossier pour votre projet et à l'intérieur de celui-ci, créez :
Dans .env, ajoutez :
Ne confiez jamais votre clé API au contrôle de version comme GitHub !
FastAPI () initialise l'application
CorsMiddleware permet l'accès depuis d'autres origines (comme votre interface)
dotenv charge votre fichier .env
os.getenv récupère la clé
Si la clé n'est pas trouvée, un avertissement est enregistré
Les modèles Pydantic sont une caractéristique essentielle de FastAPI. Ils définissent les structure, types, et défauts pour les demandes entrantes :
De même, pour les demandes d'images :
Avant d'appeler l'API Eden, nous définissons une fonction utilitaire pour générer des en-têtes :
Cela garantit que chaque demande inclut l'en-tête Autorisation, qui identifie votre compte auprès d'Eden AI.
Il s'agit de l'itinéraire qui gère les demandes des utilisateurs et renvoie les réponses générées :
Il accepte un objet TextRequest et envoie une requête POST au point de terminaison /v2/llm/chat d'Eden AI avec la structure requise :
Ce format imite une interaction de chat typique où l'utilisateur fournit des informations et l'IA répond.
Ajoutez éventuellement temperature et max_tokens :
Envoie la requête POST :
La gestion des erreurs est effectuée à l'aide de l'exception HttpException de FastAPI, qui renvoie clairement les codes d'état et les messages d'erreur :
Cela fonctionne de la même manière que l'itinéraire textuel mais inclut une URL d'image :
La charge utile de la requête est légèrement différente ici, car elle inclut à la fois les types text et image_url dans le tableau de contenu :
Utile load example :
Tout le reste (en-têtes, requête, gestion des erreurs) reste le même.
Cela vous permet de poser des questions telles que :
Et obtenez des réponses intelligentes en fonction du contenu de l'image.
Une route ping simple pour vérifier si l'API est en cours d'exécution :
Utilisez-le pour une surveillance automatisée ou pour vérifier les déploiements.
Pour démarrer votre application FastAPI, utilisez Uvicorn :
Open then your navigateur and visit :
Docs: http://localhost:8000/docs
Bild of health: http://localhost:8000/health
Vous pouvez envoyer des messages tels que :
Et obtenez des réponses générées par l'IA à partir de GPT-4o.
Utilisez-le pour analyser l'URL des images avec des instructions telles que :
Vous avez maintenant créé un puissant backend FastAPI qui communique avec Eden AI, gère à la fois le texte et les images, et est structuré de manière extensible et conviviale pour la production.
Il s'agit d'une solution propre, sécurisée et évolutive qui, surtout, démystifie le fonctionnement des API basées sur l'IA.
Ce projet est un excellent point de départ. Voici quelques idées pour aller plus loin :
Prêt à plonger plus profondément ? Nous avons tout ce dont vous avez besoin pour commencer.
Que vous souhaitiez migrer depuis un autre fournisseur LLM ou créer votre première application basée sur l'IA, nous avons facilité son exploration, sa mise en œuvre et son lancement en toute confiance :
Documentation complète
Obtient un aperçu complet du fonctionnement de l'API LLM unifiée, notamment des points de terminaison, des paramètres et des formats de réponse :
https://docs.edenai.co/reference/llm_root_create
Migration Guide
Vous utilisez déjà OpenAI ou un autre fournisseur ? Ce guide vous explique comment passer au point de terminaison unifié d'Eden AI, sans modifier votre configuration existante :
https://docs.edenai.co/docs/%EF%B8%8F-migration-tutorial-to-v2llmchat
Example de code
Vous voulez le voir en action ? Découvrez notre implémentation complète de FastAPI fonctionnelle avec de vrais exemples de code :
https://github.com/edenai/cookbook/blob/master/Generative/llm_chat_multimodal.py
Vous pouvez commencer à créer dès maintenant. Si vous avez des questions, n'hésitez pas à discuter avec nous !
CommencezContactez le service commercial