Les passerelles LLM fournissent une couche proxy centralisée entre Claude Code et les fournisseurs de modèles, offrant :

  • Authentification centralisée - Point unique pour la gestion des clés API
  • Suivi d’utilisation - Surveiller l’utilisation à travers les équipes et projets
  • Contrôles de coûts - Implémenter des budgets et des limites de taux
  • Journalisation d’audit - Suivre toutes les interactions de modèles pour la conformité
  • Routage de modèles - Basculer entre les fournisseurs sans changements de code

Configuration LiteLLM

LiteLLM est un service proxy tiers. Anthropic n’approuve, ne maintient, ni n’audite la sécurité ou la fonctionnalité de LiteLLM. Ce guide est fourni à des fins informatives et peut devenir obsolète. Utilisez à votre propre discrétion.

Prérequis

  • Claude Code mis à jour vers la dernière version
  • Serveur Proxy LiteLLM déployé et accessible
  • Accès aux modèles Claude via votre fournisseur choisi

Configuration LiteLLM de base

Configurer Claude Code :

Méthodes d’authentification

Clé API statique

Méthode la plus simple utilisant une clé API fixe :

# Définir dans l'environnement
export ANTHROPIC_AUTH_TOKEN=sk-litellm-static-key

# Ou dans les paramètres Claude Code
{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-litellm-static-key"
  }
}

Cette valeur sera envoyée comme en-tête Authorization.

Clé API dynamique avec assistant

Pour les clés rotatives ou l’authentification par utilisateur :

  1. Créer un script assistant de clé API :
#!/bin/bash
# ~/bin/get-litellm-key.sh

# Exemple : Récupérer la clé depuis le coffre-fort
vault kv get -field=api_key secret/litellm/claude-code

# Exemple : Générer un token JWT
jwt encode \
  --secret="${JWT_SECRET}" \
  --exp="+1h" \
  '{"user":"'${USER}'","team":"engineering"}'
  1. Configurer les paramètres Claude Code pour utiliser l’assistant :
{
  "apiKeyHelper": "~/bin/get-litellm-key.sh"
}
  1. Définir l’intervalle de rafraîchissement du token :
# Rafraîchir toutes les heures (3600000 ms)
export CLAUDE_CODE_API_KEY_HELPER_TTL_MS=3600000

Cette valeur sera envoyée comme en-têtes Authorization et X-Api-Key. L’apiKeyHelper a une priorité plus faible que ANTHROPIC_AUTH_TOKEN ou ANTHROPIC_API_KEY.

Point de terminaison unifié (recommandé)

Utilisant le point de terminaison au format Anthropic de LiteLLM :

export ANTHROPIC_BASE_URL=https://litellm-server:4000

Avantages du point de terminaison unifié par rapport aux points de terminaison de passage :

  • Équilibrage de charge
  • Solutions de secours
  • Support cohérent pour le suivi des coûts et le suivi des utilisateurs finaux

Points de terminaison de passage spécifiques au fournisseur (alternative)

API Anthropic via LiteLLM

Utilisant le point de terminaison de passage :

export ANTHROPIC_BASE_URL=https://litellm-server:4000/anthropic
Amazon Bedrock via LiteLLM

Utilisant le point de terminaison de passage :

export ANTHROPIC_BEDROCK_BASE_URL=https://litellm-server:4000/bedrock
export CLAUDE_CODE_SKIP_BEDROCK_AUTH=1
export CLAUDE_CODE_USE_BEDROCK=1
Google Vertex AI via LiteLLM

Utilisant le point de terminaison de passage :

export ANTHROPIC_VERTEX_BASE_URL=https://litellm-server:4000/vertex_ai/v1
export ANTHROPIC_VERTEX_PROJECT_ID=your-gcp-project-id
export CLAUDE_CODE_SKIP_VERTEX_AUTH=1
export CLAUDE_CODE_USE_VERTEX=1
export CLOUD_ML_REGION=us-east5

Sélection de modèle

Par défaut, les modèles utiliseront ceux spécifiés dans Configuration de modèle.

Si vous avez configuré des noms de modèles personnalisés dans LiteLLM, définissez les variables d’environnement susmentionnées avec ces noms personnalisés.

Pour des informations plus détaillées, consultez la documentation LiteLLM.

Ressources supplémentaires