Sevilla, España
Este artículo examina cómo la inteligencia artificial (IA) incide en la protección de los derechos humanos en la justicia transicional y la gestión migratoria, destacando tanto su potencial como sus riesgos. Analiza el uso de herramientas como el aprendizaje automático, el reconocimiento facial o el procesamiento del lenguaje natural para identificar víctimas y perpetradores, documentar violaciones masivas y optimizar la ayuda humanitaria. Si bien estas tecnologías pueden mejorar la eficiencia y la reconstrucción de la memoria democrática, también plantean serios desafíos jurídicos y éticos: sesgos algorítmicos, opacidad de los modelos, vacíos de datos que perpetúan exclusiones y riesgos para el debido proceso y la privacidad. En el ámbito migratorio, la automatización del control fronterizo y la evaluación de solicitantes de asilo reproducen desigualdades estructurales y pueden vulnerar principios fundamentales como la no devolución. El texto advierte sobre los vacíos regulatorios existentes y propone una gobernanza de la IA centrada en los derechos humanos, basada en la transparencia, las auditorías independientes y la rendición de cuentas de Estados, empresas y organismos humanitarios. En conclusión, solo mediante marcos éticos y jurídicos sólidos la IA podrá contribuir a la justicia, la memoria y la protección de la dignidad humana, evitando que la eficiencia tecnológica se convierta en una nueva forma de exclusión o impunidad.
This chapter examines how artificial intelligence (AI) affects the protection of human rights in transitional justice and migration management, highlighting both its potential and its risks. It analyzes the use of tools such as machine learning, facial recognition, and natural language processing to identify victims and perpetrators, document mass violations, and optimize humanitarian assistance. While these technologies can enhance efficiency and support the reconstruction of democratic memory, they also pose serious legal and ethical challenges: algorithmic bias, model opacity, data gaps that perpetuate exclusion and threats to due process and privacy. In the migration sphere, the automation of border control and asylum assessment reproduces structural inequalities and may undermine fundamental principles such as non-refoulement. The text warns of existing regulatory gaps and calls for AI governance grounded in human rights, based on transparency, independent auditing, and shared accountability among states, companies and humanitarian actors. It concludes that only through robust ethical and legal frameworks can AI contribute to justice, memory and the protection of human dignity, preventing technological efficiency from becoming a new form of exclusion or impunity.