Pengadilan di seluruh dunia semakin terbebani oleh jumlah kasus yang meningkat, dan program percontohan di Los Angeles berharap dapat mengubahnya dengan menguji apakah AI dapat membantu hakim tanpa mengurangi tanggung jawab pengambilan keputusan mereka. Pengadilan Tinggi Los Angeles sedang menguji alat AI bernama Learned Hand yang merangkum pengajuan dokumen, mengatur bukti, dan menghasilkan draf putusan dalam kasus perdata. Tujuannya adalah untuk mengurangi waktu yang dihabiskan untuk tugas administratif agar hakim dapat fokus pada bagian kasus yang memerlukan analisis hukum dan kebijaksanaan, kata pendiri dan CEO Learned Hand, Shlomo Klapper, kepada Decrypt.
“Kita berada di tempat di masyarakat di mana pengadilan berada di bawah tekanan besar,” kata Klapper. “Jumlah kasus mereka meningkat, tetapi tidak ada bantuan yang datang,” tambahnya, dan menyebut bahwa kemajuan dalam kecerdasan buatan “secara besar menurunkan biaya litigasi.” AI meningkatkan tekanan pada pengadilan dengan memudahkan pembuatan dokumen, dengan pengajuan dokumen meningkat 49% dari 4.100 menjadi 6.400 dalam setahun terakhir, menurut laporan Februari 2026 dari firma hukum nasional Fisher Phillips. Program percontohan Pengadilan Tinggi Los Angeles memberikan sekelompok kecil pejabat pengadilan akses ke sistem AI Learned Hand untuk menguji kinerjanya dalam seluruh proses kasus, dari penerimaan hingga draf putusan.
Klapper, yang pernah menjadi asisten hukum pengadilan banding AS dan ahli strategi penempatan di Palantir, mengatakan Learned Hand, didirikan pada 2024 dan dinamai sesuai hakim federal yang sama, dirancang untuk memberi pengadilan yang terbebani alat AI yang “dibuat khusus” yang mengurangi pekerjaan rutin dengan menyoroti fakta dan isu hukum utama sambil meninggalkan penilaian dan kebebasan kepada hakim manusia. “Dengan kemitraan ini, kami secara hati-hati mengevaluasi teknologi yang muncul untuk menentukan bagaimana mereka dapat mendukung pejabat pengadilan dalam bekerja lebih efisien dan efektif,” kata Hakim Ketua Sergio C. Tapia II dalam sebuah pernyataan. “Saya ingin jelas—meskipun alat ini dapat meningkatkan cara pejabat pengadilan meninjau dan berinteraksi dengan berkas dan informasi kasus, alat ini tidak akan menggantikan, atau dengan cara apa pun mengompromikan, kesucian, independensi, dan objektivitas pengambilan keputusan pengadilan.” Klapper mengatakan bagian tersulit dalam mengembangkan AI untuk pengadilan bukanlah menghasilkan teks, tetapi memeriksa output AI terhadap materi kasus dan sumber hukum yang mendasarinya. “Sebagian besar biaya model bahasa besar kami ada pada verifikasi, bukan pada pembuatan,” kata Klapper. “Pembuatan itu mudah. Siapa pun bisa menghasilkan sesuatu, tetapi bagaimana memastikan bahwa itu benar-benar dapat diandalkan?” Halusinasi AI sudah muncul dalam kasus pengadilan yang terkenal. Pada 2023, tim pembela Prakazrel “Pras” Michel, anggota pendiri grup hip-hop Fugees, menuduh bahwa AI membantu menulis argumen penutup yang berisi klaim tidak berdasar dan melewatkan kelemahan dalam kasus pemerintah terhadapnya. Tahun yang sama, seorang hakim federal memerintahkan pengacara yang mewakili mantan pengacara Trump, Michael Cohen, untuk menyediakan salinan cetak dari kasus yang dikutip setelah pengadilan tidak dapat memverifikasinya. Klapper mengatakan Learned Hand dibangun di sekitar kumpulan materi sumber yang lebih terbatas untuk mengurangi risiko halusinasi AI. Alih-alih menarik dari internet terbuka atau dataset acak, sistem ini beroperasi dalam kumpulan materi hukum yang terdefinisi.
Alasannya adalah karena model bahasa besar dapat mencerminkan bias dalam data pelatihannya, menunjukkan contoh AI yang meniru saran dari platform seperti Reddit, kata Klapper. Learned Hand mengatasi hal ini dengan memecah tugas menjadi langkah-langkah dan menugaskan setiap langkah kepada model dengan fungsi tertentu. Learned Hand juga dirancang agar hakim tidak memerlukan pelatihan teknis untuk menggunakannya. “Ini cukup klik dan pilih,” kata Klapper. “Mereka tidak perlu melakukan prompt apa pun.” Klapper berpendapat bahwa sebagian besar hari hakim dihabiskan untuk tugas rutin daripada penalaran hukum, dan bahwa AI bertujuan agar mereka dapat “menghabiskan lebih banyak waktu untuk pekerjaan hakim dan lebih sedikit waktu untuk pekerjaan rutin.” Klapper mengatakan hakim tidak boleh menerima output AI begitu saja dan bahwa baik alat maupun perusahaan di baliknya harus membuktikan keandalannya. “Saya suka mengatakan, jangan percaya, verifikasi,” katanya. “Mereka tidak boleh percaya apa pun. Itu harus menunjukkan nilainya.”