Gestisci i costi in modo efficace
Impara come tracciare e ottimizzare l’utilizzo dei token e i costi quando usi Claude Code.
Claude Code consuma token per ogni interazione. Il costo medio è di 12 per il 90% degli utenti.
Per l’utilizzo in team, Claude Code addebita in base al consumo di token API. In media, Claude Code costa ~$100-200/sviluppatore al mese con Sonnet 4, anche se c’è una grande varianza a seconda di quante istanze gli utenti stanno eseguendo e se lo stanno usando nell’automazione.
Traccia i tuoi costi
Utilizzando il comando /cost
Il comando /cost
non è destinato agli abbonati Claude Max e Pro.
Il comando /cost
fornisce statistiche dettagliate sull’utilizzo dei token per la tua sessione corrente:
Opzioni di tracciamento aggiuntive
Controlla l’utilizzo storico nella Console Anthropic (richiede ruolo Admin o Billing) e imposta limiti di spesa del workspace per il workspace Claude Code (richiede ruolo Admin).
Quando autentichi per la prima volta Claude Code con il tuo account Console Anthropic, viene automaticamente creato un workspace chiamato “Claude Code” per te. Questo workspace fornisce tracciamento e gestione centralizzati dei costi per tutto l’utilizzo di Claude Code nella tua organizzazione.
Gestione dei costi per i team
Quando usi l’API Anthropic, puoi limitare la spesa totale del workspace Claude Code. Per configurare, segui queste istruzioni. Gli amministratori possono visualizzare i report sui costi e l’utilizzo seguendo queste istruzioni.
Su Bedrock e Vertex, Claude Code non invia metriche dal tuo cloud. Per ottenere metriche sui costi, diverse grandi aziende hanno riferito di utilizzare LiteLLM, che è uno strumento open-source che aiuta le aziende a tracciare la spesa per chiave. Questo progetto non è affiliato con Anthropic e non abbiamo verificato la sua sicurezza.
Raccomandazioni sui limiti di velocità
Quando configuri Claude Code per i team, considera queste raccomandazioni di Token Per Minuto (TPM) e Richieste Per Minuto (RPM) per utente basate sulla dimensione della tua organizzazione:
Dimensione del team | TPM per utente | RPM per utente |
---|---|---|
1-5 utenti | 200k-300k | 5-7 |
5-20 utenti | 100k-150k | 2.5-3.5 |
20-50 utenti | 50k-75k | 1.25-1.75 |
50-100 utenti | 25k-35k | 0.62-0.87 |
100-500 utenti | 15k-20k | 0.37-0.47 |
500+ utenti | 10k-15k | 0.25-0.35 |
Ad esempio, se hai 200 utenti, potresti richiedere 20k TPM per ogni utente, o 4 milioni di TPM totali (200*20.000 = 4 milioni).
Il TPM per utente diminuisce man mano che la dimensione del team cresce perché ci aspettiamo che meno utenti utilizzino Claude Code contemporaneamente nelle organizzazioni più grandi. Questi limiti di velocità si applicano a livello di organizzazione, non per singolo utente, il che significa che i singoli utenti possono temporaneamente consumare più della loro quota calcolata quando altri non stanno utilizzando attivamente il servizio.
Se prevedi scenari con utilizzo concorrente insolitamente alto (come sessioni di formazione dal vivo con grandi gruppi), potresti aver bisogno di allocazioni TPM più elevate per utente.
Riduci l’utilizzo dei token
-
Conversazioni compatte:
-
Claude utilizza la compattazione automatica per impostazione predefinita quando il contesto supera il 95% della capacità
-
Attiva/disattiva la compattazione automatica: Esegui
/config
e naviga su “Auto-compact enabled” -
Usa
/compact
manualmente quando il contesto diventa grande -
Aggiungi istruzioni personalizzate:
/compact Focus on code samples and API usage
-
Personalizza la compattazione aggiungendo a CLAUDE.md:
-
-
Scrivi query specifiche: Evita richieste vaghe che attivano scansioni non necessarie
-
Suddividi compiti complessi: Dividi compiti grandi in interazioni focalizzate
-
Cancella la cronologia tra i compiti: Usa
/clear
per reimpostare il contesto
I costi possono variare significativamente in base a:
- Dimensione del codebase analizzato
- Complessità delle query
- Numero di file cercati o modificati
- Lunghezza della cronologia delle conversazioni
- Frequenza di compattazione delle conversazioni
- Processi in background (generazione haiku, riassunto delle conversazioni)
Utilizzo dei token in background
Claude Code utilizza token per alcune funzionalità in background anche quando è inattivo:
- Generazione haiku: Piccoli messaggi creativi che appaiono mentre digiti (circa 1 centesimo al giorno)
- Riassunto delle conversazioni: Lavori in background che riassumono le conversazioni precedenti per la funzione
claude --resume
- Elaborazione dei comandi: Alcuni comandi come
/cost
possono generare richieste per controllare lo stato
Questi processi in background consumano una piccola quantità di token (tipicamente sotto $0.04 per sessione) anche senza interazione attiva.
Tracciamento delle modifiche di versione e degli aggiornamenti
Informazioni sulla versione corrente
Per controllare la tua versione corrente di Claude Code e i dettagli dell’installazione:
Questo comando mostra la tua versione, il tipo di installazione e le informazioni di sistema.
Comprendere i cambiamenti nel comportamento di Claude Code
Claude Code riceve regolarmente aggiornamenti che possono cambiare il funzionamento delle funzionalità, incluso il report sui costi:
- Tracciamento della versione: Usa
claude doctor
per vedere la tua versione corrente - Cambiamenti di comportamento: Funzionalità come
/cost
possono visualizzare informazioni diversamente tra le versioni - Accesso alla documentazione: Claude ha sempre accesso alla documentazione più recente, che può aiutare a spiegare il comportamento corrente delle funzionalità
Quando il report sui costi cambia
Se noti cambiamenti nel modo in cui i costi vengono visualizzati (come il comando /cost
che mostra informazioni diverse):
- Verifica la tua versione: Esegui
claude doctor
per confermare la tua versione corrente - Consulta la documentazione: Chiedi direttamente a Claude sul comportamento corrente delle funzionalità, poiché ha accesso alla documentazione aggiornata
- Contatta il supporto: Per domande specifiche sulla fatturazione, contatta il supporto Anthropic attraverso il tuo account Console
Per i deployment di team, raccomandiamo di iniziare con un piccolo gruppo pilota per stabilire i modelli di utilizzo prima di un rollout più ampio.