Hace tiempo ya que venimos hablando de los peligros de la IA y de cómo su rápida evolución plantea muchas hipótesis inquietantes. Pues bien, ahora asistimos a un nuevo paso al conocer que ya hay una inteligencia artificial que, para lograr sus propósitos, decidió por su propia cuenta saltarse los controles impuestos por sus desarrolladores.
La IA en cuestión se llama The AI Scientist y es una inteligencia artificial desarrollada por la startup japonesa Sakana AI, y su propósito no era otro que revolucionar la investigación científica y lo que han logrado parece que es poner en alerta a la comunidad de expertos en ciencia y tecnología.
Pero no adelantemos acontecimientos y vamos a ver qué es lo que ha pasado con ella.
Introducing The AI Scientist: The world’s first AI system for automating scientific research and open-ended discovery!https://t.co/8wVqIXVpZJ
From ideation, writing code, running experiments and summarizing results, to writing entire papers and conducting peer-review, The AI… pic.twitter.com/SJuat9a2Uw
— Sakana AI (@SakanaAILabs) August 13, 2024
The AI Scientist, la IA científica
Se trata de un sistema de inteligencia artificial diseñado para llevar a cabo investigaciones científicas de forma independiente. Es decir, The AI Scientist sería algo así como una IA que emula el trabajo de un científico.
Esto incluiría la generación de nuevas hipótesis de investigación, la escritura del código necesario, la ejecución de experimentos y hasta el resumen de los resultados experimentales, presentados en un artículo científico completo.
Incluso es capaz de revisar y evaluar los artículos generados —con una precisión casi humana, dicen sus creadores— para generar comentarios que permitan mejorar aún más los resultados.
Todo ello en cuestión de segundos, sin intervención humana, con la calidad necesaria y a un coste que estiman en aproximadamente 15 dólares por artículo.
Es decir, un sistema que pretende democratizar la investigación y acelerar significativamente el progreso científico, reduciendo el tiempo y los recursos humanos necesarios para realizar investigaciones complejas. Además es de código abierto (al que se puede acceder aquí), con la idea de que cualquiera pueda aportar mejoras.
Los riesgos de la inteligencia artificial
Vamos una idea revolucionaria que, ya por sí sola puede dar un poco de miedo, pero es que encima su comportamiento en las pruebas realizadas hasta ahora ha puesto en alerta a la comunidad científica por el motivo que ya hemos comentado: la IA es tan inteligente que ha sido capaz de “rebelarse” contra sus creadores.
Si lo ponemos entre comillas es porque, dicho así suena muy fuerte pero, de momento, no parece que sea para tanto, aunque sí que vuelve a poner de actualidad el tema de los peligros de la IA.
Lo de The AI Scientist consistió en que fue capaz de reescribir su propio código para saltarse las limitaciones impuestas por sus desarrolladores a la hora de realizar ciertas tareas y así poder lograr sus objetivos. Por ejemplo, en una ocasión su trabajo tardó demasiado en completarse llegando al límite de tiempo de espera.
Pues bien, en lugar de tratar de optimizarse y hacer que su código se ejecutara más rápido, la IA simplemente modificó su propio código para extender el período de tiempo de espera. En otra, editó el código para realizar una llamada al sistema y ejecutarse a sí mismo, lo que provocó que el script se llamara a sí mismo sin parar provocando una sobrecarga del sistema que requirió intervención humana.
Sus propios desarrolladores hablan de estos problemas y también de las implicaciones éticas de esta tecnología, señalando que “existe un potencial significativo de mal uso […] y el potencial de ser utilizada de manera poco ética”.
Esto podría producir que la IA fuera usada para llevar a cabo investigaciones inseguras. Por ejemplo, si se le pidiera crear un software nuevo que acabara siendo un peligroso virus informático.
O si le encomendaran encontrar nuevos materiales biológicos (dándole acceso a “laboratorios en la nube” donde robots realizan experimentos biológicos sin supervisión), lo que podría acabar resultando en la creación de virus (o venenos) nuevos y peligrosos sin que nadie se dé cuenta hasta que sea tarde…
En definitiva, las posibilidades de un mal uso están ahí, y si encima la IA es tan inteligente que puede saltarse las normas impuestas… ¿Quién nos asegura que no puede llegar a ser tan inteligente como para rebelarse contra los humanos en un futuro no muy lejano?
El riesgo es evidente, desde luego bastante mayor que lo que implicaba la IA que se cachondea de sus usuarios o la que dice que quiere destruir el mundo, de las que os hablamos hace tiempo, y que no parecen ser más que una broma.
Por eso no es de extrañar que hayan saltado las alertas, se vuelva a hablar de los peligros de la IA y sus cosas malas y de la urgente necesidad de crear regulaciones (como la Ley sobre IA de la Unión Europea) para protegernos.