Die Text Completions API wurde zugunsten der Messages API als veraltet markiert.
Ein- und Ausgaben
Die größte Änderung zwischen Text Completions und Messages ist die Art und Weise, wie Sie Modelleingaben spezifizieren und Ausgaben vom Modell erhalten. Bei Text Completions sind Eingaben rohe Strings:Python
role und content.
RollennamenDie Text Completions API erwartet abwechselnde
\n\nHuman: und \n\nAssistant: Züge, aber die Messages API erwartet user und assistant Rollen. Sie könnten Dokumentation sehen, die sich auf “human” oder “user” Züge bezieht. Diese beziehen sich auf dieselbe Rolle und werden zukünftig “user” sein.completion Werten der Antwort zurückgegeben:
Python
content Wert, welcher eine Liste von Inhaltsblöcken ist:
Python
Claude Worte in den Mund legen
Bei Text Completions können Sie einen Teil von Claudes Antwort vorab ausfüllen:Python
assistant Rolle haben lassen:
Python
content von der letzten Eingabenachricht content fortgesetzt:
JSON
System Prompt
Bei Text Completions wird der System Prompt spezifiziert, indem Text vor dem ersten\n\nHuman: Zug hinzugefügt wird:
Python
system Parameter:
Python
Modellnamen
Die Messages API erfordert, dass Sie die vollständige Modellversion spezifizieren (z.B.claude-sonnet-4-5-20250929).
Wir haben zuvor die Spezifikation nur der Hauptversionsnummer unterstützt (z.B. claude-2), was zu automatischen Upgrades auf Nebenversionen führte. Wir empfehlen jedoch dieses Integrationsmuster nicht mehr, und Messages unterstützen es nicht.
Stop Reason
Text Completions haben immer einenstop_reason von entweder:
"stop_sequence": Das Modell beendete seinen Zug entweder natürlich, oder eine Ihrer benutzerdefinierten Stop-Sequenzen wurde generiert."max_tokens": Entweder das Modell generierte Ihre spezifiziertenmax_tokensan Inhalt, oder es erreichte sein absolutes Maximum.
stop_reason von einem der folgenden Werte:
"end_turn": Der Gesprächszug endete natürlich."stop_sequence": Eine Ihrer spezifizierten benutzerdefinierten Stop-Sequenzen wurde generiert."max_tokens": (unverändert)
Max Tokens spezifizieren
- Text Completions:
max_tokens_to_sampleParameter. Keine Validierung, aber begrenzte Werte pro Modell. - Messages:
max_tokensParameter. Wenn ein Wert übergeben wird, der höher ist als das Modell unterstützt, wird ein Validierungsfehler zurückgegeben.
Streaming Format
Bei der Verwendung von"stream": true mit Text Completions enthielt die Antwort beliebige completion, ping und error Server-Sent-Events.
Messages können mehrere Inhaltsblöcke verschiedener Typen enthalten, und daher ist ihr Streaming-Format etwas komplexer. Siehe Messages Streaming für Details.