LLM-Gateway-Konfiguration
Erfahren Sie, wie Sie Claude Code mit LLM-Gateway-Lösungen konfigurieren, einschließlich LiteLLM-Setup, Authentifizierungsmethoden und Unternehmensfunktionen wie Nutzungsverfolgung und Budgetverwaltung.
LLM-Gateways bieten eine zentralisierte Proxy-Schicht zwischen Claude Code und Modellanbietern und bieten:
- Zentralisierte Authentifizierung - Einzelner Punkt für API-Schlüsselverwaltung
- Nutzungsverfolgung - Überwachung der Nutzung über Teams und Projekte hinweg
- Kostenkontrollen - Implementierung von Budgets und Ratenbegrenzungen
- Audit-Protokollierung - Verfolgung aller Modellinteraktionen für Compliance
- Modell-Routing - Wechsel zwischen Anbietern ohne Code-Änderungen
LiteLLM-Konfiguration
LiteLLM ist ein Drittanbieter-Proxy-Service. Anthropic unterstützt, wartet oder prüft LiteLLMs Sicherheit oder Funktionalität nicht. Diese Anleitung wird zu Informationszwecken bereitgestellt und kann veraltet sein. Verwenden Sie sie auf eigene Verantwortung.
Voraussetzungen
- Claude Code auf die neueste Version aktualisiert
- LiteLLM Proxy Server bereitgestellt und zugänglich
- Zugang zu Claude-Modellen über Ihren gewählten Anbieter
Grundlegende LiteLLM-Einrichtung
Claude Code konfigurieren:
Authentifizierungsmethoden
Statischer API-Schlüssel
Einfachste Methode mit einem festen API-Schlüssel:
Dieser Wert wird als Authorization
-Header gesendet.
Dynamischer API-Schlüssel mit Helfer
Für rotierende Schlüssel oder benutzerbasierte Authentifizierung:
- Erstellen Sie ein API-Schlüssel-Helfer-Skript:
- Konfigurieren Sie Claude Code-Einstellungen zur Verwendung des Helfers:
- Token-Aktualisierungsintervall festlegen:
Dieser Wert wird als Authorization
- und X-Api-Key
-Header gesendet. Der apiKeyHelper
hat niedrigere Priorität als ANTHROPIC_AUTH_TOKEN
oder ANTHROPIC_API_KEY
.
Einheitlicher Endpunkt (empfohlen)
Verwendung von LiteLLMs Anthropic-Format-Endpunkt:
Vorteile des einheitlichen Endpunkts gegenüber Pass-Through-Endpunkten:
- Lastverteilung
- Fallbacks
- Konsistente Unterstützung für Kostenverfolgung und Endbenutzer-Verfolgung
Anbieter-spezifische Pass-Through-Endpunkte (Alternative)
Anthropic API über LiteLLM
Verwendung des Pass-Through-Endpunkts:
Amazon Bedrock über LiteLLM
Verwendung des Pass-Through-Endpunkts:
Google Vertex AI über LiteLLM
Verwendung des Pass-Through-Endpunkts:
Modellauswahl
Standardmäßig verwenden die Modelle die in Modellkonfiguration angegebenen.
Wenn Sie benutzerdefinierte Modellnamen in LiteLLM konfiguriert haben, setzen Sie die oben genannten Umgebungsvariablen auf diese benutzerdefinierten Namen.
Für detailliertere Informationen siehe die LiteLLM-Dokumentation.