Santiago, Chile
Comuna de Concepción, Chile
Valdivia, Chile
El presente artículo tiene por objeto principal analizar críticamente, y desde una perspectiva de derechos humanos aplicables a las nuevas tecnologías, la implementación piloto de un algoritmo de sugerencia de riesgo (ASR) en el Ministerio Público chileno. Para ello, describiremos los factores que explican su desarrollo, la experiencia previa de la Pauta Unificada de Evaluación Inicial del Riesgo (PUIR), la experiencia y las lecciones que pueden extraerse del VIOGEN español, y realizaremos una explicación detallada del diseño y modo de funcionamiento del ASR. Incorporamos una metodología cualitativa para analizar cómo los funcionarios del Ministerio Público interactúan con esta herramienta, en esta fase de implementación. Dado que el ordenamiento jurídico chileno está en transformación, con nuevas regulaciones sobre protección de datos y el posible uso de sistemas de IA, consideramos crucial contribuir a conciliar dos aspectos fundamentales: por un lado, mejorar la evaluación del riesgo de violencia contra las mujeres y hacer más eficientes las medidas de protección; y, por otro, proteger los derechos fundamentales de víctimas e imputados en un contexto de creciente intermediación algorítmica entre Estado y ciudadanos.
The main objective of this article is to critically analyze, from a human rights perspective applicable to new technologies, a risk-assesment algorithm (ASR) currently being piloted by the Chilean Public Prosecutor's Office. To achieve this, we will describe the factors that explain its development, the prior experience with the Unified Initial Risk Assessment (PUIR), the experience and lessons that can be drawn from the Spanish VIOGEN system, and provide a detailed explanation of the design and functioning of the ASR. We incorporate a qualitative methodology to analyze how Public Prosecutor’s Office officials interact with this tool, still in its pilot stage. Given that the Chilean legal framework is undergoing changes, with new regulations on data protection and the potential regulation of AI systems, we consider it essential to contribute to the reconciliation of two key aspects: on the one hand, improving risk assessments for violence against women and making protection measures more efficient; and, on the other, protecting the fundamental rights of victims and defendants in an era marked by increasing algorithmic mediation in the vertical relationships between the State and its citizens.