México
Las decisiones automatizadas mediante inteligencia artificial a primera vista son consideradas objetivas y neutrales, sin embargo, un sector opositor afirma todo lo contrario, sosteniendo que someter decisiones críticas a la soberanía de los algoritmos no solo menoscabaría habilidades humanas como el pensamiento crítico o la capacidad de resolver problemas de manera creativa, sino que también hace viable la materialización de algoritmos discriminatorios, cuya presencia en ámbitos vitales, como el de la contratación o despido del recurso humano, la generación de sentencias penales o la admisión a instituciones educativas, gestiona un estado de indefensión para un cúmulo ilimitado de derechos.A la luz de los diversos casos en los que se ha podido evidenciar el peligro de los algoritmos discriminatorios, el análisis de la arquitectura de los algoritmos, y la evaluación del universo de dispositivos legales existentes que buscan dar respuesta a esta problemática, se pretende esbozar una propuesta en base a la realidad del sistema jurídico peruano
Automated decisions through artificial intelligence are considered objective and neutral. However, an opposing sector claims that subjecting critical decisions to the sovereignty of algorithms would not only undermine human skills such as critical thinking or the ability to solve problems creatively, but also allow the materialization of discriminatory algorithms, whose presence in vital areas (such as hiring or dismissing employees, generating criminal sentences, or admitting students in educational institutions) can cause a state of defenselessness for an unlimited number of rights.This paper aims at outlining a proposal based on the reality of the Peruvian legal system, in light of the various cases in which the danger of discriminatory algorithms has been evident, the analysis of the architecture of the algorithms, and the evaluation of the universe of existing legal devices that seek to respond to this problem.