Colombia
La expansión vertiginosa de la inteligencia artificial (IA) ha transformado el paisaje delictivo global, introduciendo nuevas modalidades de ciberdelitos que difuminan las fronteras entre el agente humano y el algoritmo autónomo. Este artículo doctrinal examina, desde una mirada comparada, los retos que enfrenta el derecho penal contemporáneo ante el uso de sistemas inteligentes en la comisión de delitos informáticos. Se parte de los fundamentos del Convenio de Budapest y se integran los marcos regulatorios emergentes: la European Union Artificial Intelligence Act (2024) y la Colorado Artificial Intelligence Act (2025), ambas orientadas a controlar los riesgos derivados del diseño, despliegue y uso de la IA. Se analiza también la Ley 2502 de 2025 de Colombia, pionera en tipificar la suplantación mediante IA. La investigación discute la posible imputabilidad penal de agentes algorítmicos, los dilemas éticos y las tensiones entre eficiencia tecnológica y garantías procesales. Finalmente, se propone un marco doctrinal global sustentado en principios de precaución algorítmica, responsabilidad compartida y gobernanza ética, capaz de equilibrar innovación y protección de derechos fundamentales en el ciberespacio.
The rapid proliferation of artificial intelligence (AI) has reshaped the global criminal landscape, giving rise to new forms of cybercrime that blur the boundary between human agency and autonomous algorithmic behavior. This paper explores, through a comparative lens, the challenges faced by contemporary criminal law as intelligent systems increasingly participate in, or facilitate, digital offenses. Grounded in the principles of the Budapest Convention, it incorporates the emerging regulatory frameworks of the European Union Artificial Intelligence Act (2024) and the Colorado Artificial Intelligence Act (2025), bothaimed at mitigating the risks inherent in AI design, deployment, and misuse. The analysis also highlights Colombia’s Law 2502 of 2025, which criminalizes identity impersonation through AI. The study engages with the theoretical debate on algorithmic criminal liability, addressing ethical dilemmas and the tension between technological efficiency and procedural safeguards. Ultimately, it argues for a global doctrinal framework anchored in algorithmic-precaution principles, shared accountability, and ethical governance—an approach that balances innovation with the protection of fundamental rights in the digital realm.