La digitalización ha obligado a Europa a desarrollar una legislación que afronte los problemas de seguridad cibernética centrada cada vez más en los derechos. Las garantías de privacidad estaban hasta ahora contempladas en el Reglamento de 2016, la Directiva de servicios digitales, la Directiva de mercados digitales y un Libro Blanco sobre la IA. La Directiva introdujo la responsabilidad algorítmica; el Libro Blanco de la inteligencia artificial abordó la protección desde un enfoque orientado hacia la ética, que complemente la regulación procedente del derecho; mientras que el Reglamento de 2016 estableció exigencias sobre el consentimiento que, sin embargo, han resultado insuficientes. El marco regulador de la IA supone analizar los elementos que la componen –los datos y algoritmos–, la protección de los consumidores, la competencia desleal y la privacidad, así como el uso concreto de las aplicaciones, su metodología, los posibles fallos y ataques, y la exigencia de la supervisión y validación humana. En Europa, el mundo digital aparece condicionado por la regulación de los EE. UU. Respecto al tratamiento de los datos se han establecido mecanismos como el Escudo de Privacidad UE/EE. UU que han sido anulados por el Tribunal de Justicia, que declaró insuficiente la garantía de ese documento, aprobado por la Decisión 2016/1250 (STJ de la Gran Sala de 16 de julio de 2020). Por último, la Directiva (UE) 2022/2555 del Parlamento europeo y del Consejo de 14 de diciembre de 2022 relativa a las medidas destinadas a garantizar un elevado nivel de ciberseguridad en toda la Unión ha tenido como finalidad el desarrollo de las medidas de ciberseguridad que garanticen la circulación informativa en la prestación de servicios esenciales en sectores fundamentales de la economía. Para ello creó un Grupo de Cooperación y una red de equipos de respuesta a los incidentes de seguridad informática. Sin embargo, en apenas seis años ha quedado obsoleta por los avances tecnológicos, que aconsejan una nueva Directiva.
Digitalisation has forced Europe to develop legislation to address cyber security issues with an increasing focus on rights. Privacy safeguards were so far covered by the 2016 Regulation, the Digital Services Directive, the Digital Markets Directive and a White Paper on AI. The Directive introduced algorithmic liability; The White Paper on artificial intelligence addressed protection from an ethics-oriented approach, complementing regulation from law; while the 2016 Regulation sets out requirements on consent which, however, have proved insufficient. The regulatory framework for AI involves analysing its constituent elements - data and algorithms - consumer protection, unfair competition and privacy, as well as the specific use of applications, their methodology, potential failures and attacks, and the requirement for human oversight and validation. In Europe, the digital world appears to be conditioned by the US regulation. These have been annulled by the Court of Justice, which declared the guarantee of this document, approved by Decision 2016/1250 (Grand Chamber of the European Court of Justice of 16 July 2020), to be insufficient. Finally, the Directive (EU) 2022/2555 of the European Parliament and of the Council of 14 December 2022 on measures to ensure a high level of cybersecurity throughout the Union aimed at developing cybersecurity measures to ensure the flow of information in the provision of essential services in key sectors of the economy. To this end, it set up a Cooperation Group and a network of computer security incident response teams. However, in just six years, it has been rendered obsolete by technological developments, which make a new Directive advisable.