La Ley de Inteligencia Artificial europea ha sido aprobada por el Parlamento Europeo, con el fin de garantizar la seguridad y el respeto de los derechos fundamentales, e impulsar la innovación. Entre las normas, destacan la prohibición del uso de la inteligencia artificial (IA) para las grabaciones de cámaras de vigilancia con el fin de crear una base de datos de reconocimiento facial.
El objetivo del reglamento es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la inteligencia artificial, que entraña un alto riesgo, a la vez que se impulsa la innovación en Europa. El reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como las grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial o los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de Internet.
También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Obligaciones de los sistemas de IA de alto riesgo
También se prevén obligaciones claras para otros sistemas de IA de alto riesgo, debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.
Algunos ejemplos de usos de alto riesgo de la IA, son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca). También se consideran de alto riesgo determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos. Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.
La Ley de Inteligencia Artificial establece que los ciudadanos tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.
Por otro lado, los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos.
Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes. Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados (ultrafalsificaciones) deberán etiquetarse claramente como tales.
Espacios de pruebas para sistemas de IA desarrollados por las pymes
En base a esto, el Parlamento Europeo considera que habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.
El reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo Europeo.
Entrará en vigor 20 días después de su publicación en el Diario Oficial y será de plena aplicación 24 meses después de su entrada en vigor, con excepción de las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor); los códigos de buenas prácticas (nueve meses después); las normas sobre la IA de uso general, incluida la gobernanza (12 meses después), y las obligaciones para los sistemas de alto riesgo (36 meses después).