Tribunais de todo o mundo estão sobrecarregados com o aumento de processos, e um programa piloto em Los Angeles espera mudar isso ao testar se a IA pode ajudar os juízes sem descarregar suas decisões. O Tribunal Superior de Los Angeles está testando uma ferramenta de IA chamada Learned Hand, que resume processos, organiza provas e gera rascunhos de decisões em casos civis. O objetivo é reduzir o tempo gasto em tarefas administrativas para que os juízes possam focar nas partes do caso que exigem análise jurídica e discrição, disse Shlomo Klapper, fundador e CEO da Learned Hand, ao Decrypt.
“Estamos numa fase da sociedade em que os tribunais estão sob enorme pressão,” afirmou Klapper. “Os seus volumes de processos aumentam, mas nenhuma ajuda está chegando,” acrescentou, destacando que os avanços em inteligência artificial estão “massivamente reduzindo o custo do litígio.” A IA aumenta a pressão sobre os tribunais ao facilitar a produção de processos, com os processos aumentando 49%, de 4.100 para 6.400 no último ano, de acordo com um relatório de fevereiro de 2026 da firma de advocacia Fisher Phillips. O piloto do Tribunal Superior de Los Angeles dá a um pequeno grupo de oficiais judiciais acesso ao sistema de IA Learned Hand para testar seu desempenho ao longo de um caso, desde a entrada até os rascunhos de decisões.
Klapper, ex-assessor jurídico do Tribunal de Apelações dos EUA e estrategista de implantação na Palantir, disse que a Learned Hand, fundada em 2024 e nomeada em homenagem a um juiz federal de mesmo nome, foi criada para fornecer às cortes sobrecarregadas ferramentas de IA “específicas” que reduzem o trabalho braçal ao destacar fatos e questões jurídicas importantes, deixando a decisão e a autonomia ao juiz humano. “Com esta parceria, estamos avaliando cuidadosamente as tecnologias emergentes para determinar como podem apoiar os oficiais judiciais a trabalhar de forma mais eficiente e eficaz,” afirmou o Juiz Presidente Sergio C. Tapia II, em uma declaração. “Deixe-me ser claro—embora esta ferramenta possa melhorar a forma como os oficiais judiciais revisam e interagem com os processos e informações, ela não substituirá, nem de forma alguma comprometerá, a santidade, independência e imparcialidade das decisões judiciais.” Klapper afirmou que a parte mais difícil de desenvolver uma IA para os tribunais não é gerar o texto, mas verificar a saída da IA com os materiais do caso e fontes jurídicas. “A maior parte do custo do nosso modelo de linguagem grande está na verificação, não na geração,” disse Klapper. “Gerar é fácil. Qualquer um pode gerar algo, mas como garantir que seja realmente confiável?” Alucinações de IA já surgiram em casos judiciais de alto perfil. Em 2023, a equipe de defesa de Prakazrel “Pras” Michel, membro fundador do grupo de hip-hop Fugees, alegou que uma IA ajudou a escrever um argumento de encerramento que incluía alegações frivolous e deixou passar fraquezas no caso do governo contra ele. No mesmo ano, um juiz federal ordenou que os advogados de Michael Cohen, ex-advogado de Trump, fornecessem cópias impressas dos casos citados após o tribunal não conseguir verificá-los. Klapper afirmou que a Learned Hand é construída com um conjunto mais restrito de materiais de origem para reduzir o risco de alucinações da IA. Em vez de buscar na internet aberta ou em conjuntos de dados aleatórios, o sistema opera dentro de um conjunto definido de materiais jurídicos.
A razão é que modelos de linguagem grande podem refletir vieses presentes em seus dados de treinamento, apontou Klapper. A Learned Hand aborda isso dividindo as tarefas em etapas e atribuindo cada uma a um modelo com uma função específica. A Learned Hand também foi projetada para que os juízes não precisem de treinamento técnico para usá-la. “É só apontar e clicar,” disse Klapper. “Eles não precisam fazer prompts.” Klapper argumenta que grande parte do dia de um juiz é dedicada a tarefas rotineiras, e que a IA visa permitir que eles “gaste mais tempo com o trabalho judicial e menos com tarefas repetitivas.” Klapper afirmou que os juízes não devem aceitar as saídas da IA ao pé da letra e que tanto as ferramentas quanto as empresas por trás delas precisam provar sua confiabilidade. “Eu gosto de dizer, não confie, verifique,” afirmou. “Eles não devem confiar em nada. Precisa mostrar seu valor.”