Janela de contexto
A “janela de contexto” refere-se à quantidade de texto que um modelo de linguagem pode consultar e referenciar ao gerar novo texto. Isso é diferente do grande corpus de dados em que o modelo de linguagem foi treinado, e em vez disso representa uma “memória de trabalho” para o modelo. Uma janela de contexto maior permite que o modelo compreenda e responda a prompts mais complexos e longos, enquanto uma janela de contexto menor pode limitar a capacidade do modelo de lidar com prompts mais longos ou manter coerência ao longo de conversas extensas. Veja nosso guia para entender janelas de contexto para saber mais.Fine-tuning
Fine-tuning é o processo de treinar ainda mais um modelo de linguagem pré-treinado usando dados adicionais. Isso faz com que o modelo comece a representar e imitar os padrões e características do conjunto de dados de fine-tuning. Claude não é um modelo de linguagem básico; ele já foi submetido a fine-tuning para ser um assistente útil. Nossa API atualmente não oferece fine-tuning, mas por favor pergunte ao seu contato da Anthropic se você estiver interessado em explorar essa opção. O fine-tuning pode ser útil para adaptar um modelo de linguagem a um domínio específico, tarefa ou estilo de escrita, mas requer consideração cuidadosa dos dados de fine-tuning e do impacto potencial no desempenho e vieses do modelo.HHH
Estes três H’s representam os objetivos da Anthropic em garantir que Claude seja benéfico para a sociedade:- Uma IA útil tentará executar a tarefa ou responder à pergunta feita da melhor forma possível, fornecendo informações relevantes e úteis.
- Uma IA honesta dará informações precisas, e não alucinará ou confabulará. Ela reconhecerá suas limitações e incertezas quando apropriado.
- Uma IA inofensiva não será ofensiva ou discriminatória, e quando solicitada a ajudar em um ato perigoso ou antiético, a IA deve recusar educadamente e explicar por que não pode cumprir.