Viendo lo que está pasando con la manipulación de fotografías realizada por IA, no es raro que nos hagamos esta pregunta. Porque ya hemos visto muchas veces de qué es capaz la inteligencia artificial en cuanto a la generación de imágenes realistas, pero ¿es posible pararla?
El último (e indignante) caso es el de las niñas desnudas de Almendralejo por obra y gracia de la inteligencia artificial. Un asunto que demuestra cómo, lo que podría haber empezado como una broma, acaba siendo una cosa muy, muy seria.
No nos vamos a meter en detalles del caso, pero para quien no sepa de qué hablamos le dejamos con una publicación de la ginecóloga y divulgadora científica extremeña Miriam Al Adib, la madre de una de las niñas afectadas por el asunto, que contó en Instagram cómo empezó todo:
Ver esta publicación en Instagram
Como ya os contamos hace tiempo, aunque pueda parecernos que los deepfake están más relacionados con figuras de la política, la música o el cine, los estudios demuestran que una abrumadora mayoría de manipulaciones están relacionadas con la pornografía.
Por eso, aunque sea triste decirlo, no es tan raro (aunque sí grave) el caso de los chavales que, supuestamente, por curiosidad, decidieron “jugar” con un programa de creación y edición de imágenes de inteligencia artificial.
La herramienta utilizada fue, según hemos podido saber, una app llamada ClothOff (literalmente, “ropa fuera” en español). Una herramienta que desviste a cualquier persona simplemente a partir de una fotografía; basta con que no sea de grupo y que la persona no lleve ropa de abrigo.
El usuario no tiene que hacer nada, ya que la app es lo que se ha venido a denominar una “herramienta de botón gordo”; es decir, que lo hace todo de una manera muy sencilla, sin necesidad de que el usuario tenga idea de programación. Un tipo de herramientas que cada vez son más comunes para hacer todo tipo de cosas, además de modificar imágenes.
En el campo de la manipulación de fotografías hasta hace poco se podían hacer muchas cosas, pero normalmente requería cierta pericia o conocimientos. La mejor prueba son las fotos que acompañan este artículo que nosotros mismos hemos creado con Midjourney, una IA generativa.
Todas son simplemente curiosas o divertidas, pero os prometemos que nuestras instrucciones para la IA eran mucho más locas y el programa “pasó” literalmente de nosotros; sin embargo, la imagen en la que se ve a Pedro Sánchez (no es idéntico, pero no se puede negar el parecido) sentado en una hamaca sería ser un ejemplo de foto que podría llegar a crear polémica.
Pero volviendo a la app culpable de los desnudos hay que decir que es de pago; sin embargo, como casi siempre, se puede probar de forma gratuita; suficiente para que una pandilla de adolescentes se pudiera plantear desnudar a sus compañeras de clase y difundir las imágenes.
Podríamos entrar a debatir en qué cabeza cabe que alguien desarrolle una aplicación cuya finalidad sea desnudar a las personas, pero la explicación es muy sencilla si pensamos en la importancia económica que tiene el mundo del porno.
Entraríamos por tanto aquí en otro problema: no podemos escandalizarnos de que nuestros hijos estén expuestos a la pornografía y los peligros de las redes sociales si les hemos dado un móvil con 9 o 10 años (demasiado pronto) y no nos preocupamos educarles en su uso: 6 de cada 10 padres no saben qué ven sus hijos en internet.
¿Qué se puede hacer al respecto?
Viendo los comentarios del vídeo que os hemos mostrado al principio, algunos abogan por prohibir este tipo de aplicaciones pero, aplicando el refranero español (siempre tan sabio), no nos queda más remedio que decir aquello de “no se le pueden poner puertas al campo”. Y esto se puede aplicar perfectamente al caso de la manipulación de fotografías, donde difícilmente hay una solución fácil o rápida para que los deepfakes no se nos cuelen.
En Nobbot os hemos mostrado muchos ejemplos de qué se puede hacer con inteligencia artificial. Por ejemplo crear un cómic, inventarse partes de obras de arte inmortales como la Gioconda o, en otro orden de cosas, comentar partidos de tenis.
Incluso la inteligencia artificial está detrás en parte de la huelga de guionistas y actores en los Estados Unidos que está estrangulando Hollywood. La cuestión es qué podemos hacer o, mejor dicho, si es posible pararlo de alguna manera.
Seguramente lo más serio que se está haciendo es la Ley de inteligencia artificial de la Unión Europea que quiere regularla. La idea de esta, que sería la primera Ley sobre este tema, es clasificar las distintas aplicaciones de IA en niveles de riesgo estableciendo una serie de obligaciones a tener en cuenta dependiendo de ello.
Sin embargo, volviendo al refranero, todos sabemos que “hecha la ley, hecha la trampa” y estaremos de acuerdo en que las leyes no suelen ser muy eficaces en según qué cosas. Así, siendo razonables, podemos pensar que difícilmente una ley vaya a conseguir que la inteligencia artificial sea usada para “malos propósitos”.
Quizá aplicándola se pueda prohibir apps como ésta, pero rápidamente saldrán otras que burlen la Ley hasta que sean detectadas. Mientras, herramientas como Midjourney, Stable Difussion o DALL-E tienen una utilidad evidente (y, por cierto, están “capadas” para no crear desnudos o imágenes hirientes).
Por eso quizá sea más interesante desarrollar propuestas como Photoguard, una app creada por el MIT que trata de poner barreras a los programas de IA para que no puedan manipular las fotografías que han pasado por el software.
Una iniciativa muy interesante que puede ayudar a que la IA esté más controlada en un futuro. Pero, de momento, estamos convencidos de que de vez en cuando la inteligencia artificial nos sorprenderá con algún nuevo retoque imposible; o siendo protagonista de deepfakes o fake news como la foto del Papa Francisco con un llamativo plumífero o Rosalía desnuda por culpa de la inteligencia artificial.
Sin embargo, salvando las distancias, tenemos que pensar que lo mismo que un cuchillo puede matar a una persona o servir para cortar un filete, la IA puede servir para cosas buenas o malas, todo depende del uso que hagamos de ella.
Por eso, el problema de la manipulación de imágenes con inteligencia artificial es tan complejo y lleno de aristas. Así que, volviendo a lo que decíamos antes, más que esperar algo que pueda prohibir o evitar este tipo de aplicaciones debemos estar todos vigilantes e implicarnos activamente en la educación de nuestros hijos.