El 17 de marzo de 2024 el Parlamento Europeo aprobó, por 523 votos a favor, 46 en contra y 49 abstenciones, la Ley Europea de Inteligencia Artificial.
Con esta votación se culmina el intenso trabajo realizado en las instituciones europeas para dotar a la Unión de un marco jurídico para gobernar la digitalización y liderar la regulación de la Inteligencia Artificial (IA) en el mundo.
Se trata de una normativa marco que cuenta con un amplio ámbito geográfico, alcanzando a cualquier modelo de IA que se desarrolla y utiliza en la Unión Europea, aunque se hayan entrenado u operen en terceros países siempre que tenga un impacto en la UE, quedando garantizada la extraterritorialidad de la ley europea.
apoyo a la inteligencia artificial europea
La regulación de la inteligencia artificial europea se ha hecho respetando nuestros principios y valores europeos. El objetivo es favorecer el desarrollo de IA europeas, dotando de confianza a los ciudadanos y seguridad jurídica a los actores en la UE. Europa pretende establecer un estándar global que sitúa en el centro a las personas y se dirige a la prevención de los riesgos inherentes al uso de estas tecnologías.
Se establece una escala de riesgos clasificando los usos de la IA, como prohibidos, alto riesgo, que requieren requisitos adicionales de transparencia y riesgo bajo o nulo, asegurando que no se produce ningún daño a las personas ni tampoco una quiebra en nuestras sociedades democráticas, el estado de derecho o el medioambiente, que se identifican como intereses generales a proteger.
Por tanto, se prohíbe el uso de la IA cuando el riesgo es inasumible para nuestras sociedades democráticas y se incluyen, entre otros, a la policía predictiva, la vigilancia a través de sistemas de reconocimiento de emociones en el trabajo o en la educación, el rastreo indiscriminado de rostros en la internet, sistemas de categorización biométricas para deducir datos personales sensibles. También se prohíbe en Europa la vigilancia biométrica masiva por parte de las autoridades en lugares públicos, salvo en casos muy excepcionales para delitos graves, buscar una persona secuestrada o en caso de atentado terrorista inminente, siempre que se cumpla con estrictas salvaguardas y garantías legales.
Se consideran de alto riesgo aquellos usos de la IA que pueden tener un impacto significativo en la seguridad, la salud o los derechos fundamentales de las personas. La propia Ley enumera los usos de IA en áreas consideradas sensibles, por ejemplo, en infraestructuras críticas, en el trabajo, la educación, el control de fronteras, el acceso a la justicia o a servicios públicos o privados esenciales – incluidos los créditos financieros o seguros. También se considera de alto riesgo la IA que puede provocar un impacto en los resultados de procesos electorales, algo de especial importancia para luchar contra la desinformación.
Cuando son declaradas de alto riesgo, se debe cumplir con una serie de requisitos antes de su comercialización, como garantizar la buena gobernanza de los datos para evitar sesgos y discriminación, transparencia, supervisión humana, ciberseguridad y controles técnicos, plan de prevención de riesgos e inscribir la IA en un registro europeo. Además, en el Parlamento hemos incluido la obligación de realizar una evaluación de impacto en los derechos fundamentales, cuando la IA de alto riesgo se use en el marco de la prestación de un servicio público, identificando a las personas o grupos de personas que pueden verse afectadas por sesgos o discriminación y poner en marcha planes concretos de prevención.
requisitos de transparencia
Se exigen requisitos adicionales de transparencia cuando la IA interactúa con personas naturales, que deberán ser informados de manera clara y accesible desde el primer momento. Debemos destacar que la Ley empodera a los ciudadanos con el establecimiento de nuevos derechos a ser informados, a recibir una explicación razonable cuando se vean afectados legalmente por el uso de una IA y a presentar una queja en caso de haber sido perjudicados por el uso de IA.
Además, se exige una transparencia total para la producción y difusión de imágenes, audios, videos, pero también de textos, que sean creados o manipulados por IA, los conocidos como ultrafalsificaciones, informando que se trata de contenidos generados por IA.
En efecto, en pleno debate de la ley tuvo lugar la irrupción masiva de los modelos de uso general o IA generativas. Su impacto convenció a la mayoría – a pesar de las fuertes presiones recibidas por parte de algunos actores tecnológicos y algunos estados miembros- de la necesidad de crear un nuevo capítulo para su regulación. Con la ley europea, los proveedores de IA de los modelos de uso general que operen en Europa deben cumplir con obligaciones de transparencia específicas, incluyendo una garantía de respeto de los derechos de autor en el entrenamiento. Además, modelos de uso general que por su alta capacidad presenten un riesgo sistémico, tendrán obligaciones adicionales para la prevención de dichos riesgos, ciberseguridad y la obligación de informar sobre el consumo energético de dichos modelos.
Cuando la IA no presente riesgos, se incentiva el establecimiento de códigos de conducta voluntarios, para favorecer, entre otros criterios, la accesibilidad, la igualdad de género, la sostenibilidad medioambiental o la formación en IA. Una tecnología tan disruptiva debe acompañarse de garantías para que la ciudadanía pueda ejercer un control democrático y por ello las empresas tendrían que garantizar al menos que su personal tiene los conocimientos necesarios para evaluar los riesgos del uso de la IA y cumplir con las obligaciones establecidas en la ley.
espacios de pruebas para la inteligencia artificial europea
Para favorecer el desarrollo de inteligencia artificial europea se incluye un sistema de incentivos a través de los espacios de pruebas. La idea es crear al menos un espacio de pruebas en cada país de la UE donde probar y recibir los apoyos necesarios para el desarrollo de una IA respetuosa con las obligaciones establecidas en la ley. España ha sido el primer país europeo en ponerlo en marcha.
Las autoridades nacionales son las encargadas de velar por la aplicación de la ley en su territorio y de aplicar las sanciones previstas en la ley frente a los incumplimientos. La Oficina Europea de IA deberá prestar apoyo técnico a los países miembros en esta tarea y supervisar los modelos de uso general. También debe elaborar códigos de buenas prácticas y directrices que faciliten la aplicación de la ley y que se irán publicando en los próximos meses.
La IA está provocando cambios en nuestra sociedad a una velocidad y con un impacto exponencial, desconocidos hasta el momento. Frente a los modelos tecnológicos que se imponen en otras partes del mundo, en Europa hemos sido pioneros para liderar la regulación de la IA de acuerdo con nuestros principios y promover una IA más justa, segura, transparente, robusta, sostenible y socialmente responsable, en definitiva, una IA europea de la que podamos sentirnos seguros y orgullosos.
En Nobbot | Pedro Sánchez: «Las fake news cuestionan la democracia»