La UE ya hace tiempo que se propuso regular la IA y crear la que sería la primera Ley de Inteligencia Artificial en el mundo. Y finalmente se aprobó en el Parlamento de Estrasburgo, por abrumadora mayoría, la propuesta de la norma que debe regularla.
Una norma que, evidentemente, está llamada a ser polémica por muchas razones. La primera, lógicamente, por la dificultad de poner límites en lo que se puede y no se puede hacer con la IA. Buen ejemplo es el intento de prohibición del reconocimiento facial masivo para la vigilancia de espacios públicos, un tema que ha sido de los más discutidos entre los europarlamentarios.
“Las cámaras de reconocimiento facial de las calles o el análisis en vivo del metraje de las videocámaras de vigilancia se deberán parar”, explica Ella Jakubowska, abogada en la organización European Digital Rights. Tampoco estará permitido hacer búsquedas de personas a partir de imágenes, cerrándole las puertas a aplicaciones del tipo Clearview.
Esta norma llega después de la multa a la GSMA por la utilización de este sistema biométrico para el acceso al MWC 2023 celebrada en Barcelona. El ‘AI Act’ prohíbe la recopilación de datos biométricos para su posterior categorización junto con el rastreo de estas imágenes.
Por su parte, ChatGPT tendrá que compartir información con la Unión Europea, ya que se busca que la Inteligencia Artificial no genere ningún tipo de modelo basado en contenidos protegidos por derechos de autor. Además, OpenAI deberá indicar la información en la que se ha entrado a esta IA para así estar completamente seguros de que no se usó información protegida.
Se entiende, visto lo visto, que algunos se pregunten por las razones que puede haber detrás de una norma que parece va a ser aprobada en tiempo récord por un organismo que suele tardar décadas en aprobar una simple normativa de tráfico. ¿Tan grave es la situación?
Un ley para protegernos de la IA
Foto realizada con la IA MidJourney
Tal y como cuenta en su web el propio Parlamento Europeo, la creación de esta Ley de Inteligencia artificial entra dentro de la estrategia digital de la UE que busca garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora.
Reconociendo que puede aportar muchos beneficios (mejor asistencia sanitaria, transporte más seguro y limpio, fabricación más eficiente, energía más barata y sostenible…), la Unión Europea quiere garantizar que los sistemas de inteligencia artificial que se usen dentro de sus fronteras sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
Por ello, afirman, los sistemas de IA deben ser supervisados por personas, para evitar resultados perjudiciales. Así, se propone que se analicen y clasifiquen de acuerdo al riesgo que supongan para los posibles usuarios.
¿Qué dice la ley sobre la inteligencia artificial?
La nueva normativa propuesta por la UE pretende establecer obligaciones para proveedores y usuarios en función del nivel de riesgo de la inteligencia artificial clasificadas en cuatro niveles de riesgo:
Riesgo inaceptable
Estos serían los sistemas de IA que se consideran como una amenaza para las personas y, por tanto, deben ser prohibidos. Estos riesgos inaceptables incluirían situaciones en las que se produzca una “manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos”, y ponen como ejemplo los juguetes que sean activados por voz y fomenten comportamientos peligrosos en los niños.
También se prohibiría la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales y los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Eso sí, habría excepciones como los sistemas de identificación biométrica a distancia que funcionan “a posteriori”, es decir en los que la identificación se produce posteriormente, que se permiten con la finalidad de perseguir delitos graves y sólo cuando haya previa aprobación judicial.
Alto riesgo
Estos serían los sistemas de inteligencia artificial que afecten negativamente a la seguridad o a los derechos fundamentales. Todos ellos deberían ser evaluados antes de comercializarse (y a lo largo de su ciclo de vida) y se dividirían en dos categorías.
Por un lado, los que se usen en productos sujetos a la legislación de la UE sobre seguridad de los productos, lo que incluiría juguetes, aviación, automóviles, dispositivos médicos y ascensores.
Por otro lado afectaría a los sistemas de IA pertenecientes a ocho ámbitos específicos, que tendrán que registrarse en una base de datos de la UE y serían:
- Identificación biométrica y categorización de personas físicas
- Gestión y explotación de infraestructuras críticas
- Educación y formación profesional
- Empleo, gestión de trabajadores y acceso al autoempleo
- Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
- Aplicación de la ley
- Gestión de la migración, el asilo y el control de fronteras
- Asistencia en la interpretación jurídica y aplicación de la ley.
IA generativa
Los sistemas de IA generativa, entre los que se incluiría ChatGPT, tendrían que cumplir una serie de requisitos de transparencia:
- Revelar que el contenido creado ha sido generado por inteligencia artificial
- Diseñar el modelo para evitar que se generen contenidos ilegales
- Publicar resúmenes de los datos protegidos por derechos de autor que han sido usos en su entrenamiento
Riesgo limitado
Por último, los denominados sistemas de IA de riesgo limitado tendrían que cumplir unos requisitos mínimos de transparencia que posibiliten que los usuarios puedan tomar decisiones con conocimiento de causa.
Es decir, tras interactuar con las aplicaciones de inteligencia artificial, el usuario tiene derecho a decidir si desea seguir usándolas. Además, los usuarios deben ser conscientes de cuándo están interactuando con la IA, lo que incluiría los sistemas que generan o manipulan contenidos (deepfakes) ya sean imagen, audio o vídeo.
Como decíamos, la norma ha sido aprobada en el Parlamento Europeo pero eso no significa que ya esté en vigor. Aún le queda cierto recorrido en el que España está llamada a jugar un papel clave ya que el próximo mes de julio nuestro país debe asumir la presidencia del Consejo Europeo.
En cualquier caso, el proceso para aprobar la que sería primera norma legal sobre este tema continuará con una serie de negociaciones interinstitucionales con el Consejo de Ministros de la UE y la Comisión Europea.
Y, a pesar de todo, parece que se tramitará casi en tiempo récord, muy probablemente por la repercusión que la inteligencia artificial está teniendo en los últimos tiempos con las fake news, los deepfakes o las posibilidades de ChatGPT. Por ello, pronto tendremos la primera Ley de Inteligencia Artificial de la historia.