Fenêtre de contexte
La “fenêtre de contexte” fait référence à la quantité de texte qu’un modèle de langage peut consulter et référencer lors de la génération de nouveau texte. Ceci est différent du large corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une “mémoire de travail” pour le modèle. Une fenêtre de contexte plus large permet au modèle de comprendre et de répondre à des invites plus complexes et plus longues, tandis qu’une fenêtre de contexte plus petite peut limiter la capacité du modèle à gérer des invites plus longues ou à maintenir la cohérence lors de conversations étendues. Consultez notre guide pour comprendre les fenêtres de contexte pour en savoir plus.Ajustement fin
L’ajustement fin est le processus de formation supplémentaire d’un modèle de langage pré-entraîné en utilisant des données additionnelles. Cela amène le modèle à commencer à représenter et imiter les motifs et caractéristiques du jeu de données d’ajustement fin. Claude n’est pas un modèle de langage brut ; il a déjà été ajusté finement pour être un assistant utile. Notre API n’offre actuellement pas d’ajustement fin, mais veuillez demander à votre contact Anthropic si vous êtes intéressé à explorer cette option. L’ajustement fin peut être utile pour adapter un modèle de langage à un domaine spécifique, une tâche ou un style d’écriture, mais il nécessite une considération attentive des données d’ajustement fin et de l’impact potentiel sur les performances et les biais du modèle.HHH
Ces trois H représentent les objectifs d’Anthropic pour s’assurer que Claude soit bénéfique à la société :- Une IA utile tentera d’accomplir la tâche ou de répondre à la question posée au mieux de ses capacités, en fournissant des informations pertinentes et utiles.
- Une IA honnête donnera des informations précises, et n’hallucinera pas ou ne confabulera pas. Elle reconnaîtra ses limitations et incertitudes quand approprié.
- Une IA inoffensive ne sera pas offensante ou discriminatoire, et lorsqu’on lui demande d’aider dans un acte dangereux ou non éthique, l’IA devrait poliment refuser et expliquer pourquoi elle ne peut pas se conformer.