Tribunal de Justiça do Distrito Federal e dos Territórios

Análise da Resolução do CNJ sobre Implementação de IA no Poder Judiciário

por Tiago Carneiro Rabelo — publicado 12/05/2025

A Resolução 615/2025 do Conselho Nacional de Justiça estabelece um marco regulatório abrangente para a implementação da Inteligência Artificial no sistema judiciário brasileiro. A resolução reconhece o potencial transformador da IA enquanto assegura a integridade judicial por meio de diversos princípios fundamentais.

A resolução determina claramente que a IA não substituirá os magistrados, mas funcionará como uma ferramenta de apoio à decisão judicial. Esta distinção é essencial, pois embora os sistemas de IA possam auxiliar em pesquisas, organizar informações e identificar padrões, a decisão final permanece como responsabilidade exclusiva do juiz, preservando o elemento humano com sua capacidade de julgamento ético e contextual.

Essas ferramentas - IA Generativa e LLM’s - servirão como apoio na gestão de tarefas e no auxílio à tomada de decisões. Veja:

                      Art. 19. §3º, II – o uso dessas ferramentas será de caráter auxiliar e complementar, consistindo em mecanismos de apoio à decisão, vedada a utilização como instrumento autônomo de tomada de decisões judiciais sem a devida orientação, interpretação, verificação e revisão por parte do magistrado, que permanecerá integralmente responsável pelas decisões tomadas e pelas informações nelas contidas.

Para garantir uma implementação responsável, a resolução introduz um sistema de classificação de riscos em dois níveis. As ferramentas de baixo risco são aquelas que desempenham funções acessórias, como extração de informações e organização processual, com requisitos menos rigorosos para sua adoção. Já os sistemas classificados como de alto risco são aqueles que podem influenciar diretamente o julgamento de um caso, como ferramentas que analisam padrões de comportamento ou realizam valoração de provas, exigindo auditorias rigorosas e mecanismos de mitigação para prevenir vieses discriminatórios.

A supervisão humana é reforçada especialmente para evitar falhas técnicas e "alucinações" - quando a IA gera informações incorretas ou sem fundamento. Profissionais qualificados devem acompanhar de perto o trabalho destes sistemas, garantindo a qualidade e a confiabilidade das informações produzidas.

Audiodescrição: Imagem que representa o Ciclo de supervisão humana da IA

A resolução também estabelece diretrizes para governança e segurança cibernética, determinando que o uso da IA no Judiciário seja auditável e rastreável. Sistemas que apresentarem viés discriminatório ou incompatibilidade com os princípios estabelecidos devem ser corrigidos rapidamente ou, em casos onde o viés não possa ser eliminado, descontinuados completamente.

Essas correções podem ir desde ajustes técnicos até a suspensão temporária ou, em casos mais graves, a desativação definitiva da ferramenta. E se o viés identificado não puder ser corrigido? Nesse caso, a decisão mais responsável é descontinuar o sistema completamente. Além disso, é essencial elaborar um relatório detalhado explicando os motivos dessa decisão, garantindo transparência e evitando que erros semelhantes se repitam no futuro. O compromisso deve ser sempre com a justiça, a equidade e a proteção dos direitos fundamentais.

Audiodescrição: Como lidar com viés discriminatório em sistemas de IA? Na imagem, um boneco à frente de três escadas

Um aspecto inovador da resolução é a criação do Comitê Nacional de Inteligência Artificial, responsável por monitorar e atualizar as diretrizes conforme o avanço tecnológico. Composto por magistrados, especialistas em tecnologia e representantes da sociedade civil, este comitê tem como missão assegurar que as soluções adotadas estejam em conformidade com padrões éticos e legais, promovendo uma utilização responsável e eficiente das tecnologias de IA. Características:

  • i) monitorar e atualizar as diretrizes de uso da inteligência artificial, assegurando que as soluções adotadas estejam em conformidade com padrões éticos e legais.
  • ii) composto por membros de diversas áreas, incluindo magistrados, especialistas em tecnologia e representantes da sociedade civil.
  • iii) o comitê atuará na mitigação de vieses e na promoção de uma utilização responsável e eficiente das tecnologias de IA, sempre com supervisão humana.

 As diretrizes também enfatizam o processo contínuo de validação dos sistemas para garantir seu funcionamento correto ao longo do tempo, reconhecendo que sistemas de IA não são estáticos e necessitam de acompanhamento constante.

Esta regulamentação não busca frear a inovação, mas direcioná-la para um caminho seguro e benéfico. Ao estabelecer limites claros para o uso destas ferramentas e preservar a autonomia e responsabilidade dos magistrados, a norma cria um ambiente propício para a adoção responsável de novas tecnologias, mantendo o equilíbrio entre inovação e os valores tradicionais do Judiciário.

Audiodescrição: Impacto da regulação de IA no Judiciário gráfico colorido que representa os impactos da regulaçãoEsta atualização regulatória representa um avanço significativo na integração da inteligência artificial ao sistema judiciário brasileiro, garantindo que a IA seja utilizada de forma ética, segura e transparente, fortalecendo a confiança da sociedade e preparando o caminho para um Judiciário mais eficiente e acessível, sem comprometer a qualidade e humanidade essenciais à justiça.

Tiago Carneiro Rabelo. Analista Judiciário do TJDFT; Pós-graduado em Direito Digital e Processo Civil; Professor de Processo Judicial eletrônico, Resoluções do CNJ e Direito Digital; Graduando em CST Inteligência Artificial; Autor do livro “Processo Judicial eletrônico & Direito Digital”.