Configuration de la passerelle LLM
Apprenez à configurer Claude Code avec des solutions de passerelle LLM, y compris la configuration LiteLLM, les méthodes d’authentification et les fonctionnalités d’entreprise comme le suivi d’utilisation et la gestion budgétaire.
Les passerelles LLM fournissent une couche proxy centralisée entre Claude Code et les fournisseurs de modèles, offrant :
- Authentification centralisée - Point unique pour la gestion des clés API
- Suivi d’utilisation - Surveiller l’utilisation à travers les équipes et projets
- Contrôles de coûts - Implémenter des budgets et des limites de taux
- Journalisation d’audit - Suivre toutes les interactions de modèles pour la conformité
- Routage de modèles - Basculer entre les fournisseurs sans changements de code
Configuration LiteLLM
LiteLLM est un service proxy tiers. Anthropic n’approuve, ne maintient, ni n’audite la sécurité ou la fonctionnalité de LiteLLM. Ce guide est fourni à des fins informatives et peut devenir obsolète. Utilisez à votre propre discrétion.
Prérequis
- Claude Code mis à jour vers la dernière version
- Serveur Proxy LiteLLM déployé et accessible
- Accès aux modèles Claude via votre fournisseur choisi
Configuration LiteLLM de base
Configurer Claude Code :
Méthodes d’authentification
Clé API statique
Méthode la plus simple utilisant une clé API fixe :
Cette valeur sera envoyée comme en-tête Authorization
.
Clé API dynamique avec assistant
Pour les clés rotatives ou l’authentification par utilisateur :
- Créer un script assistant de clé API :
- Configurer les paramètres Claude Code pour utiliser l’assistant :
- Définir l’intervalle de rafraîchissement du token :
Cette valeur sera envoyée comme en-têtes Authorization
et X-Api-Key
. L’apiKeyHelper
a une priorité plus faible que ANTHROPIC_AUTH_TOKEN
ou ANTHROPIC_API_KEY
.
Point de terminaison unifié (recommandé)
Utilisant le point de terminaison au format Anthropic de LiteLLM :
Avantages du point de terminaison unifié par rapport aux points de terminaison de passage :
- Équilibrage de charge
- Solutions de secours
- Support cohérent pour le suivi des coûts et le suivi des utilisateurs finaux
Points de terminaison de passage spécifiques au fournisseur (alternative)
API Anthropic via LiteLLM
Utilisant le point de terminaison de passage :
Amazon Bedrock via LiteLLM
Utilisant le point de terminaison de passage :
Google Vertex AI via LiteLLM
Utilisant le point de terminaison de passage :
Sélection de modèle
Par défaut, les modèles utiliseront ceux spécifiés dans Configuration de modèle.
Si vous avez configuré des noms de modèles personnalisés dans LiteLLM, définissez les variables d’environnement susmentionnées avec ces noms personnalisés.
Pour des informations plus détaillées, consultez la documentation LiteLLM.