A API Text Completions foi descontinuada em favor da API Messages.
Entradas e saídas
A maior mudança entre Text Completions e Messages é a forma como você especifica as entradas do modelo e recebe as saídas do modelo. Com Text Completions, as entradas são strings brutas:Python
role e content.
Nomes de papéisA API Text Completions espera turnos alternados de
\n\nHuman: e \n\nAssistant:, mas a API Messages espera papéis user e assistant. Você pode ver documentação se referindo a turnos “human” ou “user”. Estes se referem ao mesmo papel, e será “user” daqui para frente.completion da resposta:
Python
content, que é uma lista de blocos de conteúdo:
Python
Colocando palavras na boca do Claude
Com Text Completions, você pode pré-preencher parte da resposta do Claude:Python
assistant:
Python
content da resposta continuará a partir do content da última mensagem de entrada:
JSON
Prompt do sistema
Com Text Completions, o prompt do sistema é especificado adicionando texto antes do primeiro turno\n\nHuman::
Python
system:
Python
Nomes dos modelos
A API Messages requer que você especifique a versão completa do modelo (por exemplo,claude-sonnet-4-5-20250929).
Anteriormente, suportávamos especificar apenas o número da versão principal (por exemplo, claude-2), o que resultava em atualizações automáticas para versões menores. No entanto, não recomendamos mais esse padrão de integração, e Messages não o suportam.
Razão de parada
Text Completions sempre têm umstop_reason de:
"stop_sequence": O modelo terminou seu turno naturalmente, ou uma de suas sequências de parada personalizadas foi gerada."max_tokens": O modelo gerou seusmax_tokensespecificados de conteúdo, ou atingiu seu máximo absoluto.
stop_reason de um dos seguintes valores:
"end_turn": O turno conversacional terminou naturalmente."stop_sequence": Uma de suas sequências de parada personalizadas especificadas foi gerada."max_tokens": (inalterado)
Especificando tokens máximos
- Text Completions: parâmetro
max_tokens_to_sample. Sem validação, mas valores limitados por modelo. - Messages: parâmetro
max_tokens. Se passar um valor maior do que o modelo suporta, retorna um erro de validação.
Formato de streaming
Ao usar"stream": true com Text Completions, a resposta incluía qualquer um dos eventos enviados pelo servidor completion, ping e error.
Messages podem conter múltiplos blocos de conteúdo de tipos variados, e assim seu formato de streaming é um pouco mais complexo. Veja Messages streaming para detalhes.