Conditions préalables
Avant de configurer Claude Code avec Vertex AI, assurez-vous que vous disposez de :- Un compte Google Cloud Platform (GCP) avec facturation activée
- Un projet GCP avec l’API Vertex AI activée
- Accès aux modèles Claude souhaités (par exemple, Claude Sonnet 4.5)
- Google Cloud SDK (
gcloud) installé et configuré - Quota alloué dans la région GCP souhaitée
Configuration de la région
Claude Code peut être utilisé avec les points de terminaison Vertex AI globaux et régionaux.Vertex AI peut ne pas supporter les modèles par défaut de Claude Code dans toutes les régions. Vous devrez peut-être basculer vers une région ou un modèle supporté.
Vertex AI peut ne pas supporter les modèles par défaut de Claude Code sur les points de terminaison globaux. Vous devrez peut-être basculer vers un point de terminaison régional ou un modèle supporté.
Configuration
1. Activer l’API Vertex AI
Activez l’API Vertex AI dans votre projet GCP :2. Demander l’accès au modèle
Demandez l’accès aux modèles Claude dans Vertex AI :- Accédez au Vertex AI Model Garden
- Recherchez les modèles « Claude »
- Demandez l’accès aux modèles Claude souhaités (par exemple, Claude Sonnet 4.5)
- Attendez l’approbation (peut prendre 24 à 48 heures)
3. Configurer les identifiants GCP
Claude Code utilise l’authentification Google Cloud standard. Pour plus d’informations, consultez la documentation d’authentification Google Cloud.Lors de l’authentification, Claude Code utilisera automatiquement l’ID de projet de la variable d’environnement
ANTHROPIC_VERTEX_PROJECT_ID. Pour remplacer cela, définissez l’une de ces variables d’environnement : GCLOUD_PROJECT, GOOGLE_CLOUD_PROJECT ou GOOGLE_APPLICATION_CREDENTIALS.4. Configurer Claude Code
Définissez les variables d’environnement suivantes :La mise en cache des invites est automatiquement supportée lorsque vous spécifiez l’indicateur éphémère
cache_control. Pour la désactiver, définissez DISABLE_PROMPT_CACHING=1. Pour des limites de débit accrues, contactez le support Google Cloud.Lors de l’utilisation de Vertex AI, les commandes
/login et /logout sont désactivées car l’authentification est gérée via les identifiants Google Cloud.5. Configuration du modèle
Claude Code utilise ces modèles par défaut pour Vertex AI :| Type de modèle | Valeur par défaut |
|---|---|
| Modèle principal | claude-sonnet-4-5@20250929 |
| Modèle petit/rapide | claude-haiku-4-5@20251001 |
Pour les utilisateurs de Vertex AI, Claude Code ne sera pas automatiquement mis à niveau de Haiku 3.5 vers Haiku 4.5. Pour basculer manuellement vers un modèle Haiku plus récent, définissez la variable d’environnement
ANTHROPIC_DEFAULT_HAIKU_MODEL sur le nom complet du modèle (par exemple, claude-haiku-4-5@20251001).Configuration IAM
Attribuez les autorisations IAM requises : Le rôleroles/aiplatform.user inclut les autorisations requises :
aiplatform.endpoints.predict- Requis pour l’invocation de modèle et le comptage de jetons
Nous recommandons de créer un projet GCP dédié pour Claude Code afin de simplifier le suivi des coûts et le contrôle d’accès.
Fenêtre de contexte de 1M de jetons
Claude Sonnet 4 et Sonnet 4.5 supportent la fenêtre de contexte de 1M de jetons sur Vertex AI.La fenêtre de contexte de 1M de jetons est actuellement en version bêta. Pour utiliser la fenêtre de contexte étendue, incluez l’en-tête bêta
context-1m-2025-08-07 dans vos demandes Vertex AI.Dépannage
Si vous rencontrez des problèmes de quota :- Vérifiez les quotas actuels ou demandez une augmentation de quota via la Console Cloud
- Confirmez que le modèle est activé dans Model Garden
- Vérifiez que vous avez accès à la région spécifiée
- Si vous utilisez
CLOUD_ML_REGION=global, vérifiez que vos modèles supportent les points de terminaison globaux dans Model Garden sous « Fonctionnalités supportées ». Pour les modèles qui ne supportent pas les points de terminaison globaux, soit :- Spécifiez un modèle supporté via
ANTHROPIC_MODELouANTHROPIC_SMALL_FAST_MODEL, soit - Définissez un point de terminaison régional en utilisant les variables d’environnement
VERTEX_REGION_<MODEL_NAME>
- Spécifiez un modèle supporté via
- Pour les points de terminaison régionaux, assurez-vous que le modèle principal et le modèle petit/rapide sont supportés dans votre région sélectionnée
- Envisagez de basculer vers
CLOUD_ML_REGION=globalpour une meilleure disponibilité