- Mengelola batas tingkat dan biaya secara proaktif
- Membuat keputusan routing model yang cerdas
- Mengoptimalkan prompt agar memiliki panjang tertentu
Cara menghitung token pesan
Endpoint penghitungan token menerima daftar input terstruktur yang sama untuk membuat pesan, termasuk dukungan untuk prompt sistem, tools, gambar, dan PDF. Respons berisi jumlah total token input.Jumlah token harus dianggap sebagai perkiraan. Dalam beberapa kasus, jumlah sebenarnya dari token input yang digunakan saat membuat pesan mungkin berbeda dalam jumlah kecil.Jumlah token mungkin termasuk token yang ditambahkan secara otomatis oleh Anthropic untuk optimisasi sistem. Anda tidak ditagih untuk token yang ditambahkan sistem. Penagihan hanya mencerminkan konten Anda.
Model yang didukung
Semua model aktif mendukung penghitungan token.Menghitung token dalam pesan dasar
JSON
Menghitung token dalam pesan dengan tools
Jumlah token Server tool hanya berlaku untuk panggilan sampling pertama.
JSON
Menghitung token dalam pesan dengan gambar
JSON
Menghitung token dalam pesan dengan extended thinking
Lihat di sini untuk detail lebih lanjut tentang bagaimana jendela konteks dihitung dengan extended thinking
- Blok thinking dari giliran asisten sebelumnya diabaikan dan tidak dihitung terhadap token input Anda
- Thinking giliran asisten saat ini dihitung terhadap token input Anda
JSON
Menghitung token dalam pesan dengan PDF
Penghitungan token mendukung PDF dengan keterbatasan yang sama seperti Messages API.
JSON
Harga dan batas tingkat
Penghitungan token gratis untuk digunakan tetapi tunduk pada batas permintaan per menit berdasarkan tingkat penggunaan Anda. Jika Anda memerlukan batas yang lebih tinggi, hubungi penjualan melalui Claude Console.| Tingkat penggunaan | Permintaan per menit (RPM) |
|---|---|
| 1 | 100 |
| 2 | 2,000 |
| 3 | 4,000 |
| 4 | 8,000 |
Penghitungan token dan pembuatan pesan memiliki batas tingkat yang terpisah dan independen — penggunaan satu tidak dihitung terhadap batas yang lain.
FAQ
Apakah penghitungan token menggunakan prompt caching?
Apakah penghitungan token menggunakan prompt caching?
Tidak, penghitungan token memberikan perkiraan tanpa menggunakan logika caching. Meskipun Anda dapat menyediakan blok
cache_control dalam permintaan penghitungan token Anda, prompt caching hanya terjadi selama pembuatan pesan yang sebenarnya.