Accès à la fonctionnalité d’évaluation

Pour commencer avec l’outil d’évaluation :

  1. Ouvrez la Console Anthropic et naviguez vers l’éditeur de prompts.
  2. Après avoir composé votre prompt, recherchez l’onglet ‘Évaluer’ en haut de l’écran.

Assurez-vous que votre prompt inclut au moins 1-2 variables dynamiques en utilisant la syntaxe à double accolades : {{variable}}. Ceci est requis pour créer des jeux de tests d’évaluation.

Génération de prompts

La Console offre un générateur de prompts intégré alimenté par Claude Opus 4.1 :

1

Cliquez sur 'Générer un prompt'

Cliquer sur l’outil d’aide ‘Générer un prompt’ ouvrira une fenêtre modale qui vous permet de saisir les informations de votre tâche.

2

Décrivez votre tâche

Décrivez votre tâche souhaitée (par exemple, “Trier les demandes de support client entrant”) avec autant ou aussi peu de détails que vous le souhaitez. Plus vous incluez de contexte, plus Claude peut adapter son prompt généré à vos besoins spécifiques.

3

Générez votre prompt

Cliquer sur le bouton orange ‘Générer un prompt’ en bas fera que Claude génère un prompt de haute qualité pour vous. Vous pouvez ensuite améliorer davantage ces prompts en utilisant l’écran d’évaluation dans la Console.

Cette fonctionnalité facilite la création de prompts avec la syntaxe de variable appropriée pour l’évaluation.

Création de cas de test

Lorsque vous accédez à l’écran d’évaluation, vous avez plusieurs options pour créer des cas de test :

  1. Cliquez sur le bouton ’+ Ajouter une ligne’ en bas à gauche pour ajouter manuellement un cas.
  2. Utilisez la fonctionnalité ‘Générer un cas de test’ pour que Claude génère automatiquement des cas de test pour vous.
  3. Importez des cas de test à partir d’un fichier CSV.

Pour utiliser la fonctionnalité ‘Générer un cas de test’ :

1

Cliquez sur 'Générer un cas de test'

Claude générera des cas de test pour vous, une ligne à la fois pour chaque fois que vous cliquez sur le bouton.

2

Modifier la logique de génération (optionnel)

Vous pouvez également modifier la logique de génération de cas de test en cliquant sur la flèche déroulante à droite du bouton ‘Générer un cas de test’, puis sur ‘Afficher la logique de génération’ en haut de la fenêtre Variables qui apparaît. Vous devrez peut-être cliquer sur `Générer’ en haut à droite de cette fenêtre pour remplir la logique de génération initiale.

Modifier ceci vous permet de personnaliser et d’affiner les cas de test que Claude génère avec une plus grande précision et spécificité.

Voici un exemple d’écran d’évaluation rempli avec plusieurs cas de test :

Si vous mettez à jour votre texte de prompt original, vous pouvez relancer toute la suite d’évaluation contre le nouveau prompt pour voir comment les changements affectent les performances sur tous les cas de test.

Conseils pour une évaluation efficace

Utilisez l’outil d’aide ‘Générer un prompt’ dans la Console pour créer rapidement des prompts avec la syntaxe de variable appropriée pour l’évaluation.

Comprendre et comparer les résultats

L’outil d’évaluation offre plusieurs fonctionnalités pour vous aider à affiner vos prompts :

  1. Comparaison côte à côte : Comparez les sorties de deux ou plusieurs prompts pour voir rapidement l’impact de vos changements.
  2. Notation de qualité : Notez la qualité des réponses sur une échelle de 5 points pour suivre les améliorations de la qualité des réponses par prompt.
  3. Versioning de prompts : Créez de nouvelles versions de votre prompt et relancez la suite de tests pour itérer rapidement et améliorer les résultats.

En examinant les résultats à travers les cas de test et en comparant différentes versions de prompts, vous pouvez repérer des modèles et faire des ajustements éclairés à votre prompt plus efficacement.

Commencez à évaluer vos prompts aujourd’hui pour construire des applications IA plus robustes avec Claude !