Memahami jendela konteks
“Jendela konteks” mengacu pada keseluruhan jumlah teks yang dapat dilihat kembali dan dirujuk oleh model bahasa saat menghasilkan teks baru ditambah teks baru yang dihasilkannya. Ini berbeda dari korpus data besar yang digunakan untuk melatih model bahasa, dan sebaliknya mewakili “memori kerja” untuk model. Jendela konteks yang lebih besar memungkinkan model untuk memahami dan merespons prompt yang lebih kompleks dan panjang, sementara jendela konteks yang lebih kecil dapat membatasi kemampuan model untuk menangani prompt yang lebih panjang atau mempertahankan koherensi selama percakapan yang diperpanjang. Diagram di bawah ini mengilustrasikan perilaku jendela konteks standar untuk permintaan API1:- Akumulasi token progresif: Saat percakapan berlanjut melalui giliran, setiap pesan pengguna dan respons asisten terakumulasi dalam jendela konteks. Giliran sebelumnya dipertahankan sepenuhnya.
- Pola pertumbuhan linear: Penggunaan konteks tumbuh secara linear dengan setiap giliran, dengan giliran sebelumnya dipertahankan sepenuhnya.
- Kapasitas 200K token: Total jendela konteks yang tersedia (200.000 token) mewakili kapasitas maksimum untuk menyimpan riwayat percakapan dan menghasilkan output baru dari Claude.
- Alur input-output: Setiap giliran terdiri dari:
- Fase input: Berisi semua riwayat percakapan sebelumnya ditambah pesan pengguna saat ini
- Fase output: Menghasilkan respons teks yang menjadi bagian dari input masa depan
Jendela konteks dengan extended thinking
Saat menggunakan extended thinking, semua token input dan output, termasuk token yang digunakan untuk berpikir, dihitung terhadap batas jendela konteks, dengan beberapa nuansa dalam situasi multi-turn. Token anggaran thinking adalah subset dari parametermax_tokens Anda, ditagih sebagai token output, dan dihitung terhadap batas rate.
Namun, blok thinking sebelumnya secara otomatis dihapus dari perhitungan jendela konteks oleh Claude API dan bukan bagian dari riwayat percakapan yang “dilihat” model untuk giliran selanjutnya, mempertahankan kapasitas token untuk konten percakapan aktual.
Diagram di bawah ini mendemonstrasikan manajemen token khusus saat extended thinking diaktifkan:
- Menghapus extended thinking: Blok extended thinking (ditampilkan dalam abu-abu gelap) dihasilkan selama fase output setiap giliran, tetapi tidak dibawa ke depan sebagai token input untuk giliran selanjutnya. Anda tidak perlu menghapus blok thinking sendiri. Claude API secara otomatis melakukan ini untuk Anda jika Anda mengirimkannya kembali.
- Detail implementasi teknis:
- API secara otomatis mengecualikan blok thinking dari giliran sebelumnya saat Anda mengirimkannya kembali sebagai bagian dari riwayat percakapan.
- Token extended thinking ditagih sebagai token output hanya sekali, selama generasinya.
- Perhitungan jendela konteks efektif menjadi:
context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens. - Token thinking mencakup blok
thinkingdan blokredacted_thinking.
Anda dapat membaca lebih lanjut tentang jendela konteks dan extended thinking dalam panduan extended thinking kami.
Jendela konteks dengan extended thinking dan penggunaan alat
Diagram di bawah ini mengilustrasikan manajemen token jendela konteks saat menggabungkan extended thinking dengan penggunaan alat:1
Arsitektur giliran pertama
- Komponen input: Konfigurasi alat dan pesan pengguna
- Komponen output: Extended thinking + respons teks + permintaan penggunaan alat
- Perhitungan token: Semua komponen input dan output dihitung terhadap jendela konteks, dan semua komponen output ditagih sebagai token output.
2
Penanganan hasil alat (giliran 2)
- Komponen input: Setiap blok dalam giliran pertama serta
tool_result. Blok extended thinking harus dikembalikan dengan hasil alat yang sesuai. Ini adalah satu-satunya kasus di mana Anda harus mengembalikan blok thinking. - Komponen output: Setelah hasil alat telah dikirim kembali ke Claude, Claude akan merespons hanya dengan teks (tidak ada extended thinking tambahan sampai pesan
userberikutnya). - Perhitungan token: Semua komponen input dan output dihitung terhadap jendela konteks, dan semua komponen output ditagih sebagai token output.
3
Langkah Ketiga
- Komponen input: Semua input dan output dari giliran sebelumnya dibawa ke depan dengan pengecualian blok thinking, yang dapat dihapus sekarang setelah Claude menyelesaikan seluruh siklus penggunaan alat. API akan secara otomatis menghapus blok thinking untuk Anda jika Anda mengirimkannya kembali, atau Anda dapat dengan bebas menghapusnya sendiri pada tahap ini. Di sinilah Anda akan menambahkan giliran
Userberikutnya. - Komponen output: Karena ada giliran
Userbaru di luar siklus penggunaan alat, Claude akan menghasilkan blok extended thinking baru dan melanjutkan dari sana. - Perhitungan token: Token thinking sebelumnya secara otomatis dihapus dari perhitungan jendela konteks. Semua blok sebelumnya lainnya masih dihitung sebagai bagian dari jendela token, dan blok thinking dalam giliran
Assistantsaat ini dihitung sebagai bagian dari jendela konteks.
- Pertimbangan untuk penggunaan alat dengan extended thinking:
- Saat memposting hasil alat, seluruh blok thinking yang tidak dimodifikasi yang menyertai permintaan alat spesifik tersebut (termasuk bagian tanda tangan/redacted) harus disertakan.
- Perhitungan jendela konteks efektif untuk extended thinking dengan penggunaan alat menjadi:
context_window = input_tokens + current_turn_tokens. - Sistem menggunakan tanda tangan kriptografis untuk memverifikasi keaslian blok thinking. Gagal mempertahankan blok thinking selama penggunaan alat dapat merusak kontinuitas penalaran Claude. Jadi, jika Anda memodifikasi blok thinking, API akan mengembalikan error.
Model Claude 4 mendukung interleaved thinking, yang memungkinkan Claude untuk berpikir di antara panggilan alat dan membuat penalaran yang lebih canggih setelah menerima hasil alat.Claude Sonnet 3.7 tidak mendukung interleaved thinking, jadi tidak ada interleaving extended thinking dan panggilan alat tanpa giliran pengguna non-
tool_result di antaranya.Untuk informasi lebih lanjut tentang menggunakan alat dengan extended thinking, lihat panduan extended thinking kami.Jendela konteks 1M token
Claude Sonnet 4 dan 4.5 mendukung jendela konteks 1 juta token. Jendela konteks yang diperpanjang ini memungkinkan Anda memproses dokumen yang jauh lebih besar, mempertahankan percakapan yang lebih panjang, dan bekerja dengan basis kode yang lebih ekstensif.Jendela konteks 1M token saat ini dalam beta untuk organisasi di tingkat penggunaan 4 dan organisasi dengan batas rate khusus. Jendela konteks 1M token hanya tersedia untuk Claude Sonnet 4 dan Sonnet 4.5.
context-1m-2025-08-07 dalam permintaan API Anda:
- Status beta: Ini adalah fitur beta yang dapat berubah. Fitur dan harga dapat dimodifikasi atau dihapus dalam rilis masa depan.
- Persyaratan tingkat penggunaan: Jendela konteks 1M token tersedia untuk organisasi di tingkat penggunaan 4 dan organisasi dengan batas rate khusus. Organisasi tingkat yang lebih rendah harus maju ke tingkat penggunaan 4 untuk mengakses fitur ini.
- Ketersediaan: Jendela konteks 1M token saat ini tersedia di Claude API, Amazon Bedrock, dan Google Cloud’s Vertex AI.
- Harga: Permintaan yang melebihi 200K token secara otomatis dikenakan tarif premium (2x input, 1.5x output pricing). Lihat dokumentasi harga untuk detail.
- Batas rate: Permintaan konteks panjang memiliki batas rate khusus. Lihat dokumentasi batas rate untuk detail.
- Pertimbangan multimodal: Saat memproses sejumlah besar gambar atau pdf, perhatikan bahwa file dapat bervariasi dalam penggunaan token. Saat memasangkan prompt besar dengan sejumlah besar gambar, Anda mungkin mencapai batas ukuran permintaan.
Kesadaran konteks dalam Claude Sonnet 4.5 dan Haiku 4.5
Claude Sonnet 4.5 dan Claude Haiku 4.5 menampilkan kesadaran konteks, memungkinkan model-model ini untuk melacak jendela konteks yang tersisa (yaitu “anggaran token”) sepanjang percakapan. Ini memungkinkan Claude untuk menjalankan tugas dan mengelola konteks lebih efektif dengan memahami berapa banyak ruang yang dimilikinya untuk bekerja. Claude dilatih secara native untuk menggunakan konteks ini dengan tepat untuk bertahan dalam tugas sampai akhir, daripada harus menebak berapa banyak token yang tersisa. Untuk model, kurangnya kesadaran konteks seperti berkompetisi dalam acara memasak tanpa jam. Model Claude 4.5 mengubah ini dengan secara eksplisit menginformasikan model tentang konteks yang tersisa, sehingga dapat memanfaatkan token yang tersedia secara maksimal. Cara kerjanya: Di awal percakapan, Claude menerima informasi tentang total jendela konteksnya:- Sesi agen yang berjalan lama yang memerlukan fokus berkelanjutan
- Alur kerja multi-jendela-konteks di mana transisi state penting
- Tugas kompleks yang memerlukan manajemen token yang hati-hati
Manajemen jendela konteks dengan model Claude yang lebih baru
Dalam model Claude yang lebih baru (dimulai dengan Claude Sonnet 3.7), jika jumlah token prompt dan token output melebihi jendela konteks model, sistem akan mengembalikan error validasi daripada secara diam-diam memotong konteks. Perubahan ini memberikan perilaku yang lebih dapat diprediksi tetapi memerlukan manajemen token yang lebih hati-hati. Untuk merencanakan penggunaan token Anda dan memastikan Anda tetap dalam batas jendela konteks, Anda dapat menggunakan API penghitungan token untuk memperkirakan berapa banyak token yang akan digunakan pesan Anda sebelum mengirimkannya ke Claude. Lihat tabel perbandingan model kami untuk daftar ukuran jendela konteks berdasarkan model.Langkah selanjutnya
Tabel perbandingan model
Lihat tabel perbandingan model kami untuk daftar ukuran jendela konteks dan harga token input / output berdasarkan model.
Ikhtisar extended thinking
Pelajari lebih lanjut tentang cara kerja extended thinking dan cara mengimplementasikannya bersama fitur lain seperti penggunaan alat dan prompt caching.