José Luis Bustelo Gracia
Este artículo investiga los sesgos de género y raciales en los algoritmos de inteligencia artificial (IA) aplicados al reconocimiento facial. A través de un análisis exhaustivo, se examinan las implicaciones éticas y legales de estos sesgos en sistemas de toma de decisiones automatizadas, especialmente en el ámbito de la seguridad pública y la justicia. Los resultados indican que dichos sistemas muestran menor precisión al clasificar a mujeres de piel oscura y otras minorías raciales, lo que perpetúa desigualdades preexistentes. El estudio también evalúa las normativas vigentes y la necesidad de implementar marcos regulatorios más estrictos, con auditorías algorítmicas y transparencia en el desarrollo de la IA. Finalmente, se proponen soluciones para mitigar estos sesgos, como la diversificación de los datos de entrenamiento y la creación de políticas que promuevan la equidad en el uso de IA.
This article investigates gender and racial biases in artificial intelligence (AI) algorithms applied to facial recognition. Through a comprehensive analysis, it examines the ethical and legal implications of these biases in automated decision-making systems, especially in public safety and justice. The findings indicate that these systems demonstrate lower accuracy when identifying dark-skinned women and other racial minorities, perpetuating pre-existing inequalities. The study also reviews current regulations and highlights the need for stricter regulatory frameworks, including algorithmic audits and transparency in AI development. Finally, solutions are proposed to mitigate these biases, such as diversifying training data and developing policies that ensure fairness in AI use.