Con los últimos (y revolucionarios) avances de la inteligencia artificial, se ha puesto más de manifiesto que nunca la cuestión de si la IA puede llegar a tener sentimientos y consciencia.
La creación de una inteligencia artificial que fuera verdaderamente consciente sin duda sería algo revolucionario, que cambiaría nuestro mundo y que nos situaría en un escenario donde no sería descabellado pensar en una IA que pretenda exterminar a la Humanidad.
Claro que, por mucho que hayamos visto avances últimamente, eso parece aún bastante lejano. Pero ¿cómo determinar la consciencia de una IA? Pues un grupo de neurocientíficos, informáticos y filósofos ha creado una lista de verificación de atributos que ayudarían a comprobar cuando una IA es consciente.
¿Qué es la consciencia?
Pero antes de hablar de cómo podemos verificar si una IA tiene consciencia tenemos que intentar entender qué significa este concepto que, la verdad, no es fácil de definir.
La consciencia es un concepto complejo y difícil de definir, como ya lo deja claro el hecho que la propia RAE tenga que recurrir a varias definiciones de la palabra. Generalizando, podemos decir que consciencia hace alusión a la experiencia subjetiva de ser consciente de uno mismo y del mundo que nos rodea.
Estaremos de acuerdo en que se trata de una de las características más distintivas de los seres humanos, y por ello tradicionalmente se ha considerado como algo propio y exclusivo de nuestra raza.
Pero, aunque de momento no se ha demostrado que la consciencia exista en ningún sistema de inteligencia artificial, con la rapidez a la que avanza este campo no podemos descartar que esto ocurra ¿en un futuro próximo?
¿Cómo medir la consciencia de una inteligencia artificial?
De la historia de la IA ya os hablamos en este artículo, pero os recordamos que comenzó en los años 40 cuando se empezaron a crear algoritmos y modelos matemáticos que simulaban la inteligencia humana de manera rudimentaria.
Ya en 1950 el visionario Alan Turing, conocido sobre todo por su contribución al descifrado de los códigos de Enigma (la máquina nazi), estaba convencido de que algún día se crearía una máquina capaz de responder preguntas de una forma tan natural que sería imposible distinguir sus contestaciones de las de un ser humano.
Con esta idea publicó el Test de Turing, que todavía se utiliza hoy para valorar las IA y que consiste en que un juez mantiene una conversación textual con una computadora y con otra persona, pero sin saber quién de los dos interlocutores es realmente la máquina.
Si después de 5 minutos de conversación, el evaluador no es capaz de distinguir al menos el 70% de este tiempo cuando está hablando con el humano y cuando con la máquina, esto significaba que la máquina había pasado la prueba. Una prueba que, por cierto, no pretendía evaluar los conocimientos de la máquina sino solamente su capacidad para generar respuestas que puedan pasar por las de un ser humano.
Como decimos, este test se ha utilizado tradicionalmente para evaluar los diferentes sistemas de inteligencia artificial y, a pesar de su antigüedad, ninguno logró superarlo hasta 2014, cuando en una competición llevada a cabo en la Real Sociedad de Londres con motivo del 60 aniversario de la muerte de Turing, un bot llamado Eugene Goostman logró convencer al 33% de los jueces del concurso que consideraron que era humano.
Claro que desde 2014 la cosa ha avanzado bastante… Y si os estáis preguntando si ChatGPT pasa la prueba de Turing la respuesta es que no está del todo claro. Mientras que algunos afirman que sí, que ya lo ha hecho, otros apuntan a ChatGPT 5 como la versión que podrá lograrlo.
Y es que, a pesar de la indudable capacidad de este y otros chatbots para conversar, parece que al no haber sido diseñado para engañar al lector, aún no puede convencer a un juez de que está hablando con un humano (aunque no sea así).
La consciencia en la inteligencia artificial
En cualquier caso, lo que sí está claro es que ChatGPT aún no tiene consciencia, ni puede pensar por sí misma. Pero, más allá de la prueba de Turing, ¿cómo podemos estar seguros de ello? Con esta pregunta en mente, como avanzábamos, ha trabajado un grupo de investigadores que ha creado una lista de verificación con 14 atributos, recogidos en este documento, que en su conjunto podrían sugerir (que no probar) que una IA es consciente.
Parten de la base de que el auge de los sistemas de IA conversacional, que imitan de forma convincente la conversación humana, probablemente pueda hacer que muchos crean que estos sistemas tienen consciencia de sí mismos cuando esto no es así.
Por eso, se plantearon evaluar a las inteligencias artificiales investigando si éstas realizan funciones similares a las asociadas a la consciencia de los cerebros humanos, utilizando conceptos, teorías y pruebas basadas en neurociencia que trataron de aplicar a los procesos de la IA a través de una serie de indicadores.
En Ex_Machina, un programador tiene que realizar el test de Turing a una androide con inteligencia artificial. A mí me pareció una estupenda película de ciencia ficción. ¿A ti te gustó? pic.twitter.com/Pf1rkTFZzV
— Ma𝕘encio (con 𝕘) (@magencio_con_g) September 23, 2023
Tras esto, aplicaron la lista de verificación a varias IA distintas, entre ella cómo no ChatGPT, y el resultado es que ninguna cumplió la gran mayoría de requisitos con lo que quedaron muy lejos de poder ser consideradas como conscientes.
Por supuesto, no son resultados definitivos, y desde luego en ningún caso esto significa que en un futuro próximo se desarrollen inteligencias casi humanas que posean consciencia.
Al menos con este nuevo test (o similares) quizá podremos saberlo, aunque también habrá que tener en cuenta que pueden crearse sistemas con distintos grados de consciencia, y resultar que unas IA sean más humanas o conscientes que otras en determinados aspectos.
Sin duda se trata de un tema tremendamente complejo. Porque, si nosotros mismos no tenemos claro cómo funciona el cerebro y los mecanismos que determinan nuestra propia consciencia… ¿Cómo podemos saber cuánto de humana y consciente es una IA?