Mengakses Fitur Evaluate

Untuk memulai dengan alat Evaluasi:

  1. Buka Anthropic Console dan navigasikan ke editor prompt.
  2. Setelah menyusun prompt Anda, cari tab ‘Evaluate’ di bagian atas layar.

Pastikan prompt Anda menyertakan setidaknya 1-2 variabel dinamis menggunakan sintaks kurung kurawal ganda: {{variable}}. Ini diperlukan untuk membuat set tes eval.

Menghasilkan Prompt

Console menawarkan generator prompt bawaan yang didukung oleh Claude Opus 4.1:

1

Klik 'Generate Prompt'

Mengklik alat bantu ‘Generate Prompt’ akan membuka modal yang memungkinkan Anda memasukkan informasi tugas Anda.

2

Deskripsikan tugas Anda

Deskripsikan tugas yang Anda inginkan (misalnya, “Triase permintaan dukungan pelanggan masuk”) dengan detail sebanyak atau sesedikit yang Anda inginkan. Semakin banyak konteks yang Anda sertakan, semakin Claude dapat menyesuaikan prompt yang dihasilkannya dengan kebutuhan spesifik Anda.

3

Hasilkan prompt Anda

Mengklik tombol oranye ‘Generate Prompt’ di bagian bawah akan membuat Claude menghasilkan prompt berkualitas tinggi untuk Anda. Anda kemudian dapat lebih meningkatkan prompt tersebut menggunakan layar Evaluasi di Console.

Fitur ini memudahkan untuk membuat prompt dengan sintaks variabel yang sesuai untuk evaluasi.

Membuat Kasus Uji

Ketika Anda mengakses layar Evaluasi, Anda memiliki beberapa opsi untuk membuat kasus uji:

  1. Klik tombol ’+ Add Row’ di kiri bawah untuk menambahkan kasus secara manual.
  2. Gunakan fitur ‘Generate Test Case’ untuk membuat Claude secara otomatis menghasilkan kasus uji untuk Anda.
  3. Impor kasus uji dari file CSV.

Untuk menggunakan fitur ‘Generate Test Case’:

1

Klik pada 'Generate Test Case'

Claude akan menghasilkan kasus uji untuk Anda, satu baris pada satu waktu untuk setiap kali Anda mengklik tombol.

2

Edit logika generasi (opsional)

Anda juga dapat mengedit logika generasi kasus uji dengan mengklik pada dropdown panah di sebelah kanan tombol ‘Generate Test Case’, kemudian pada ‘Show generation logic’ di bagian atas jendela Variables yang muncul. Anda mungkin harus mengklik `Generate’ di kanan atas jendela ini untuk mengisi logika generasi awal.

Mengedit ini memungkinkan Anda untuk menyesuaikan dan menyempurnakan kasus uji yang dihasilkan Claude dengan presisi dan spesifisitas yang lebih besar.

Berikut adalah contoh layar Evaluasi yang terisi dengan beberapa kasus uji:

Jika Anda memperbarui teks prompt asli Anda, Anda dapat menjalankan kembali seluruh suite eval terhadap prompt baru untuk melihat bagaimana perubahan mempengaruhi kinerja di semua kasus uji.

Tips untuk Evaluasi yang Efektif

Gunakan alat bantu ‘Generate a prompt’ di Console untuk dengan cepat membuat prompt dengan sintaks variabel yang sesuai untuk evaluasi.

Memahami dan membandingkan hasil

Alat Evaluasi menawarkan beberapa fitur untuk membantu Anda menyempurnakan prompt Anda:

  1. Perbandingan berdampingan: Bandingkan output dari dua atau lebih prompt untuk dengan cepat melihat dampak perubahan Anda.
  2. Penilaian kualitas: Nilai kualitas respons pada skala 5 poin untuk melacak peningkatan kualitas respons per prompt.
  3. Versi prompt: Buat versi baru dari prompt Anda dan jalankan kembali suite tes untuk dengan cepat beriterasi dan meningkatkan hasil.

Dengan meninjau hasil di seluruh kasus uji dan membandingkan versi prompt yang berbeda, Anda dapat menemukan pola dan membuat penyesuaian yang tepat pada prompt Anda dengan lebih efisien.

Mulai evaluasi prompt Anda hari ini untuk membangun aplikasi AI yang lebih kuat dengan Claude!