Integration
IA Générative
88 min de lecture

How to Connect OpenCode to Any LLM Provider Using One API Key

Résumez cet article avec :

Qu’est-ce qu’OpenCode ?

OpenCode est un agent de codage IA open source conçu pour le terminal. Avec plus de 120 000 étoiles GitHub et la prise en charge de plus de 75 fournisseurs de LLM, il s’impose comme l’une des alternatives à Claude Code et GitHub Copilot qui progresse le plus rapidement auprès des développeurs cherchant plus de flexibilité dans le choix des modèles et un contrôle complet de leur environnement de développement.

Contrairement aux outils fermés, OpenCode a été pensé dès le départ pour fonctionner avec plusieurs fournisseurs de LLM. Vous n’êtes donc pas limité aux tarifs, à la disponibilité ou aux capacités d’un seul fournisseur. Vous pouvez utiliser Claude pour des refactorisations complexes, GPT-4o pour des modifications rapides et Gemini pour des tâches de planification, le tout depuis le même outil.

Chaque fournisseur dispose de sa propre entrée dans le fichier opencode.json, tandis que les identifiants sont stockés séparément dans ~/.local/share/opencode/auth.json.

Ce qui rend l’utilisation de passerelles tierces possible, c’est un détail que beaucoup de développeurs ne remarquent qu’au moment où ils en ont besoin : OpenCode utilise en interne un format d’API compatible avec OpenAI. Chaque connexion à un fournisseur est configurée avec une baseURL pointant vers un endpoint compatible avec l’API OpenAI.

Concrètement, cela signifie que si une passerelle expose une API compatible OpenAI, OpenCode la traite comme un fournisseur natif. Il suffit de modifier une seule baseURL pour router les requêtes via une couche capable de gérer l’authentification, le fallback et la facturation sur l’ensemble des modèles disponibles derrière cette passerelle.

Résultat : pas besoin de packages npm personnalisés, ni d’adaptateurs spécifiques à chaque fournisseur. OpenCode permet aux développeurs de connecter facilement plusieurs modèles d’IA tout en gardant une configuration simple, flexible et maîtrisée.

Les limites de la gestion de plusieurs clés API dans OpenCode

La compatibilité d’OpenCode avec plusieurs fournisseurs de LLM est l’un de ses principaux atouts. Mais dans la pratique, gérer plusieurs modèles d’IA via OpenCode peut rapidement devenir complexe.

Une multiplication des clés API difficile à gérer

Chaque fournisseur de LLM nécessite sa propre clé API, son propre compte et son propre tableau de bord de facturation.

Vous voulez utiliser Claude pour des refactorisations complexes et GPT-4o pour des modifications rapides ? Cela signifie déjà deux clés API à créer, deux comptes à surveiller et deux pages de facturation à vérifier en fin de mois. Ajoutez Gemini pour les tâches de planification, et vous passez à trois fournisseurs différents.

OpenCode stocke bien ces informations dans ~/.local/share/opencode/auth.json, mais le simple fait d’avoir un fichier dédié ne rend pas la gestion plus simple.

Une configuration qui peut échouer silencieusement

Dans OpenCode, les identifiants et les définitions des fournisseurs sont deux éléments distincts. Vous configurez une clé API avec opencode auth login, puis vous devez définir séparément le fournisseur dans opencode.json avec le bon package npm, la bonne baseURL et la liste des modèles disponibles.

Si un seul élément est manquant ou mal configuré, rien ne fonctionne correctement. Pourtant, OpenCode n’indique pas toujours clairement l’origine du problème. La clé peut être enregistrée correctement, mais les modèles ne s’affichent pas, le streaming peut se casser, ou les appels d’outils peuvent se comporter de manière inattendue.

Certains développeurs ont également signalé que les options de baseURL personnalisées, pourtant compatibles avec l’API OpenAI, n’étaient tout simplement pas transmises aux appels API.

Un risque réel de dépendance fournisseur

En janvier 2026, Anthropic a bloqué l’accès d’OpenCode à Claude via les tokens OAuth grand public, du jour au lendemain. Les développeurs qui avaient construit tout leur workflow autour de Claude se sont retrouvés bloqués sans préavis.

C’est là que la flexibilité d’OpenCode atteint ses limites : pouvoir choisir son fournisseur ne suffit pas si ce fournisseur peut couper l’accès à tout moment.

La solution à ces trois problèmes n’est pas d’ajouter encore plus de configuration. C’est de passer par une couche API unique capable de gérer l’authentification, le routage, le fallback et la facturation à votre place.

Qu’est-ce qu’une AI Gateway ? Et pourquoi les utilisateurs d’OpenCode en ont besoin

Une AI gateway est une couche API unifiée qui se place entre OpenCode et les différents fournisseurs de LLM. Au lieu de connecter OpenCode séparément à Anthropic, OpenAI, Google ou d’autres providers, vous le connectez une seule fois à la passerelle.

L’AI Gateway se charge ensuite du routage des requêtes, de la gestion des identifiants et des formats d’API propres à chaque fournisseur. Pour les utilisateurs d’OpenCode, une AI Gateway résout directement les trois problèmes mentionnés plus haut :

  • Une seule cléAPI pour remplacer toutes les clés fournisseur. Vous configurez OpenCode une seule fois, avec une seule baseURL et un seul token API. Plus besoin de gérer plusieurs clés, plusieurs comptes ou plusieurs tableaux de bord pour chaque fournisseur de modèles IA.
  • Moins d’erreurs de configuration. La passerelle utilise un format d’API compatible OpenAI, qu’OpenCode peut gérer de manière fiable. Résultat : pas de package npm personnalisé, pas d’adaptateur spécifique et moins de risques liés à des options baseURL mal transmises ou mal interprétées.
  • Moins de dépendance à un seul fournisseur. Si un fournisseur devient indisponible, modifie ses conditions d’accès ou rencontre un incident, l’AI Gateway peut router les requêtes vers un autre modèle compatible. Votre configuration OpenCode, elle, ne change pas.

En résumé, une AI Gateway n’ajoute pas une couche de complexité : elle en retire une. Vous accédez à davantage de modèles IA, avec moins de configuration, moins de maintenance et plus de flexibilité.

Eden AI vs LiteLLM vs OpenRouter : quelle AI Gateway fonctionne le mieux avec OpenCode ? 

Trois AI Gateways fonctionnent de manière fiable avec OpenCode : Eden AI, LiteLLM et OpenRouter. Les trois répondent au même problème central : éviter la multiplication des clés API et simplifier la connexion à plusieurs fournisseurs de LLM. Mais chacune fait des compromis différents.

Eden AI LiteLLM OpenRouter
Fournisseurs / modèles 50+ fournisseurs 100+ intégrations 200+ modèles
Hébergement Cloud géré Auto-hébergé Cloud géré
Endpoint compatible OpenAI ✓ Oui ✓ Oui ✓ Oui
Temps de configuration ~5 min 30+ min ~5 min
Basculement automatique ✓ Sans configuration ⚠ Configuration requise ✗ Limité
Suivi des coûts par requête ✓ Tous fournisseurs ⚠ Interface auto-hébergée ⚠ Statistiques basiques
Aucun serveur à maintenir ✓ Oui ✗ Non ✓ Oui
Données sur votre infrastructure ✗ Non ✓ Oui ✗ Non
Hébergé en UE / RGPD ✓ Oui ⚠ Selon la configuration ✗ Non
Offre gratuite ✓ Oui ✓ Open source ✓ Oui

Si vous avez besoin de garder vos données sur votre propre infrastructure, LiteLLM est généralement le meilleur choix. La solution est open source, auto-hébergeable et prend en charge un grand nombre d’intégrations directes avec des fournisseurs de modèles IA.

Eden AI est le meilleur choix si vous voulez éviter toute cette complexité opérationnelle. Vous bénéficiez d’un fallback automatique, d’une visibilité des coûts par requête sur plusieurs fournisseurs et d’un endpoint compatible avec l'API OpenAI, le tout entièrement géré pour vous. Une fois OpenCode configuré, vous n’avez rien à héberger, rien à patcher et rien à maintenir.

C’est aussi un point important pour les équipes ayant des exigences de conformité : Eden AI est conçu et hébergé en Europe. Cela signifie que votre trafic API et vos données d’usage restent dans une infrastructure européenne. Pour les entreprises soumises au RGPD ou évoluant dans des secteurs où la résidence des données est un critère important, Eden AI permet de lever une contrainte que ni l’offre cloud de LiteLLM ni OpenRouter ne couvrent nécessairement par défaut.

Comment connecter OpenCode à n’importe quel LLM avec une seule clé API 

Le tutoriel ci-dessous vous montre la configuration complète d’OpenCode avec une seule clé API, étape par étape. Il est particulièrement utile si vous rencontrez un problème de configuration ou si vous voulez vérifier que la structure de votre fichier opencode.json correspond bien à une configuration fonctionnelle.

La configuration complète, incluant les fichiers de config et les extraits de code, est également documentée sur le GitHub d'Eden AI Integration.

Conclusion

Managing multiple LLM providers in OpenCode means multiple keys, multiple accounts, and multiple billing pages - Eden AI replaces all of that with a single API key and one baseURL entry in your config.

To get started: create a free Eden AI account, generate your API key from the dashboard, and follow the configuration steps above. Your OpenCode setup will route requests to any supported model from that point forward.

The other advantage worth keeping in mind: once the integration is live, switching from Claude to GPT-4o to Gemini is a model name change in your config, nothing else moves. Create your free Eden AI account and connect OpenCode in under 10 minutes.

Qu'est-ce qu'une passerelle IA et pourquoi OpenCode en a-t-il besoin ?
Une passerelle IA est une couche API unifiée qui s'intercale entre OpenCode et chaque fournisseur de LLM. Au lieu de configurer des clés séparées et des entrées baseURL pour Anthropic, OpenAI et Google, vous connectez OpenCode une seule fois à la passerelle. Elle gère le routage, les identifiants et la traduction du format API — vous n'avez donc qu'une seule configuration à maintenir, quel que soit le nombre de modèles utilisés.
Ai-je encore besoin de comptes API chez Anthropic, OpenAI ou Google ?
Non. Eden AI dispose de partenariats directs avec chaque fournisseur. Votre clé API Eden AI unique vous donne accès à tous les modèles pris en charge. Vous n'avez pas besoin de créer des comptes ni de gérer la facturation auprès des fournisseurs individuels.
Que se passe-t-il si un fournisseur tombe en panne en cours de session ?
Eden AI redirige automatiquement votre requête vers un modèle équivalent d'un autre fournisseur. Votre session OpenCode continue sans interruption — aucune perte de contexte, aucun redémarrage manuel. Ce basculement est activé par défaut et ne nécessite aucune configuration de votre part.
Puis-je changer de modèle dans OpenCode sans reconfigurer la passerelle ?
Oui. Une fois OpenCode connecté à Eden AI, passer de Claude à GPT-4o ou Gemini se résume à modifier le nom du modèle dans votre opencode.json. La baseURL et la clé API restent identiques — aucun nouvel identifiant, aucune reconfiguration nécessaire.
Eden AI est-il conforme au RGPD ?
Oui. Eden AI est conçu et hébergé en Europe, ce qui signifie que le trafic API et les données d'utilisation restent dans l'infrastructure européenne. Pour les équipes soumises au RGPD ou ayant des exigences de résidence des données, c'est un avantage que la plupart des autres passerelles gérées n'offrent pas par défaut.
En quoi Eden AI est-il différent de LiteLLM ou OpenRouter ?
LiteLLM est auto-hébergé et open source — le bon choix si vous avez besoin que les données restent sur votre propre infrastructure. OpenRouter est une passerelle gérée avec un large catalogue de modèles et une tarification transparente par modèle. Eden AI est un cloud géré avec un basculement automatique sans configuration, un suivi des coûts par requête pour tous les fournisseurs et un hébergement en UE. Le bon choix dépend de si vous privilégiez le contrôle de l'infrastructure (LiteLLM), la diversité des modèles (OpenRouter) ou la fiabilité gérée avec couverture conformité (Eden AI).

Articles similaires

Integration
IA Générative
How to Run OpenAI Codex with Any AI Model, not just ChatGPT Pro
5/7/2026
·
Written bySamy Melaine
Integration
IA Générative
Comment connecter Cline à n’importe quel LLM via un AI Gateway
4/30/2026
·
Written bySamy Melaine
COMMENCEZ

Commencez à créer avec Eden AI

Une interface unique pour intégrer les meilleures technologies d’IA dans vos flux de travail.