Context window
“Context window” mengacu pada jumlah teks yang dapat dilihat kembali dan direferensikan oleh model bahasa saat menghasilkan teks baru. Ini berbeda dari korpus data besar yang digunakan untuk melatih model bahasa, dan sebaliknya mewakili “memori kerja” untuk model. Context window yang lebih besar memungkinkan model untuk memahami dan merespons prompt yang lebih kompleks dan panjang, sementara context window yang lebih kecil dapat membatasi kemampuan model untuk menangani prompt yang lebih panjang atau mempertahankan koherensi selama percakapan yang diperpanjang. Lihat panduan kami untuk memahami context windows untuk mempelajari lebih lanjut.Fine-tuning
Fine-tuning adalah proses pelatihan lebih lanjut model bahasa yang sudah dilatih sebelumnya menggunakan data tambahan. Ini menyebabkan model mulai merepresentasikan dan meniru pola serta karakteristik dari dataset fine-tuning. Claude bukan model bahasa mentah; ia telah di-fine-tune untuk menjadi asisten yang membantu. API kami saat ini tidak menawarkan fine-tuning, tetapi silakan tanyakan kepada kontak Anthropic Anda jika Anda tertarik untuk mengeksplorasi opsi ini. Fine-tuning dapat berguna untuk mengadaptasi model bahasa ke domain, tugas, atau gaya penulisan tertentu, tetapi memerlukan pertimbangan yang cermat terhadap data fine-tuning dan dampak potensial pada kinerja dan bias model.HHH
Tiga H ini mewakili tujuan Anthropic dalam memastikan bahwa Claude bermanfaat bagi masyarakat:- AI yang helpful akan berusaha melakukan tugas atau menjawab pertanyaan yang diajukan dengan kemampuan terbaiknya, memberikan informasi yang relevan dan berguna.
- AI yang honest akan memberikan informasi yang akurat, dan tidak berhalusinasi atau mengada-ada. Ia akan mengakui keterbatasan dan ketidakpastiannya ketika diperlukan.
- AI yang harmless tidak akan menyinggung atau diskriminatif, dan ketika diminta untuk membantu dalam tindakan yang berbahaya atau tidak etis, AI harus menolak dengan sopan dan menjelaskan mengapa ia tidak dapat mematuhi.