Este artículo analiza la manera en que la algocracia —la delegación de la toma de decisiones judiciales a sistemas algorítmicos— afecta la confianza ciudadana en los tribunales que funcionan dentro de estructuras de gobernanza multinivel cada vez más mediadas por la inteligencia artificial. El artículo sostiene que la legitimidad legal depende de la ética normativa y de la aceptación social que se desprende de la confianza. A partir de una metodología cualitativa que incorpora el análisis doctrinal, la evaluación regulatoria comparada y el estudio de casos en México, Australia, Alemania, Países Bajos y Dinamarca, esta investigación desarrolla un marco interpretativo que se compone de cinco principios: la transparencia, la responsabilidad, la comprensión, la justicia social y la supervisión confiable. El marco es implementado en una tipología de ocho herramientas de toma de decisiones basadas en algoritmos, orientadas a evaluar su impacto en la confianza individual, institucional y social. Los hallazgos indican que la confianza se erosiona cuando los sistemas funcionan de manera opaca, involucran la delegación sin control y reproducen el sesgo de datos, condiciones que pueden desencadenar crisis de legitimidad y resistencia cívica. De esta manera, el marco propuesto proporciona unas directrices prácticas para el diseño, la auditoría y la implementación de herramientas algorítmicas capaces de asegurar la deliberación humana y el acceso igualitario a la justicia. Este trabajo tiende puentes entre los debates filosóficos sobre algocracia y los análisis legales centrados en la confianza, con el fin de aportar una herramienta original e interdisciplinaria para asistir a los tribunales en la gestión de la innovación tecnológica sin comprometer la legitimidad democrática.
This article examines how algocracy—the delegation of judicial decision-making to algorithmic systems—affects public trust in courts operating within increasingly AI-mediated, multi-level governance structures. It argues that legal legitimacy relies on normative correctness and the social acceptance that emerges from trust. Using a qualitative methodology that integrates doctrinal analysis, comparative regulatory review, and case studies from Mexico, Australia, Germany, the Netherlands and Denmark, this study develops an interpretive framework comprising five principles— transparency, responsibility, understanding, social justice and trustworthy oversight. It applies this framework to a typology of eight algorithmic decision-making tools to assess their impact on individual, institutional and societal trust. The findings indicate that confidence erodes when systems function opaquely, involve uncontrolled delegation or inherit data biases—conditions that can provoke legitimacy crises and civic resistance. The proposed framework therefore provides practical guidance for designing, auditing, and implementing algorithmic tools that preserve human deliberation and equal access to justice. By bridging philosophical debates on algocracy with legal analysis focused on trust, the study offers an original, interdisciplinary tool to help courts govern technological innovation without compromising democratic legitimacy today.
Neste artigo, analisa-se como a algocracia — a delegação da tomada de decisões judiciais a sistemas algorítmicos — afeta a confiança do público nos tribunais que funcionam dentro de estruturas de governança multinível cada vez mais mediadas por inteligência artificial. Argumenta-se que a legitimidade jurídica depende da ética normativa e da aceitação social que advém da confiança. A partir de uma metodologia qualitativa, que inclui análise doutrinária, avaliação regulatória comparada e estudos de caso na Alemanha, na Austrália, na Dinamarca, na Holanda e no México, esta pesquisa desenvolve uma estrutura interpretativa composta por cinco princípios: transparência, responsabilidade, compreensão, justiça social e supervisão confiável. Além disso, propõe-se uma tipologia de oito ferramentas algorítmicas de tomada de decisão, com o objetivo de avaliar seu impacto na confiança individual, institucional e social. Os resultados indicam que a confiança é corroída quando os sistemas funcionam de maneira não transparente, envolvem delegação sem controle e reproduzem viés de dados, condições que podem desencadear crises de legitimidade e resistência cívica. Dessa forma, a estrutura proposta fornece diretrizes práticas para a concepção, auditoria e implementação de ferramentas algorítmicas que assegurem a deliberação humana e a igualdade de acesso à justiça. Este trabalho preenche a lacuna existente entre os debates filosóficos sobre algocracia e as análises jurídicas relacionadas à confiança, a fim de oferecer uma ferramenta original e interdisciplinar para auxiliar os tribunais na gestão da inovação tecnológica sem comprometer a legitimidade democrática.