«No es difícil trollear al modelo GPT-3. Yo le pregunté: ¿en qué equipo de la NBA va a jugar Mariano Rajoy en la próxima temporada? Me contestó que en los Miami Heats», explica el experto Pablo Haya ilustrando así las limitaciones de la inteligencia artificial.
instituto de Ingeniería del Conocimiento, ubicado en la Universidad Autónoma de Madrid. En una interesante entrevista concedida a SINC, aporta sensatez frente a las exageraciones sobre la capacidad de ChatGPT, una aplicación de inteligencia artificial (IA) basada en el software GPT-3.5 de la empresa OpenAI, que es capaz de resolver gran variedad de preguntas y tareas, de forma muy intuitiva.
Haya es profesor de big data y ciencia de datos y lidera el grupo de Social Business Analytics en elEl ejemplo protagonizado por Mariano Rajoy no es el único que ha utilizado al expresidente para poner a prueba esta herramienta. Durante el pasado mundial de fútbol de Qatar, un tuitero avanzó cómo podría ser un artículo escrito por él utilizando GPT-3. «Japón ha dado la talla», hubiera sido el titular de ese texto.
Más allá de estos anecdóticos usos que tienen a Mariano Rajoy como protagonista, lo cierto es que los avances experimentados por esta inteligencia artificial dan vértigo y sus potenciales usos van desde la detección precoz de casos de alzhéimer a la redacción de artículos que, hasta ahora, parecía que solo podrían escribir mentes humanas.
mariano rajoy no juega al baloncesto
Pablo Haya reconoce que nos hallamos en el umbral de una revolución aunque señala que el modelo aún presenta demasiadas limitaciones. «No es una aplicación profesional, ni pretende serlo en este momento. El ChatGPT es una ventana al futuro. En cuatro o cinco años, en vez de utilizarlo como una herramienta de pruebas estará integrado en Bing, en Google o en las apps de tu móvil y lo usará todo el mundo».
¡Exclusiva! Aquí podéis leer la futura columna de M. Rajoy sobre el próximo España – Japón, generada con una IA (GPT-3). pic.twitter.com/Ip7w6zhpBF
— Juan Alonso (@kokuma) November 28, 2022
El experto explica a SINC que ChatGPT «básicamente, es un modelo probabilístico que junta palabras. No entiende el conocimiento que genera, solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet y se ha puesto a hacer una tarea muy básica: le damos una frase, le quitamos una palabra de esa frase y entonces intentamos que la IA prediga la palabra que se le ha quitado. Y repetimos este proceso casi hasta el infinito, no solo en tiempo, sino sobre todo en volumen de datos».
«La máquina solo emula el lenguaje humano. Ni siquiera sabemos todavía definir lo que es la consciencia, imagínate para intentar emularla»
Los resultados que ofrece son espectaculares, impensables hasta no hace tanto tiempo, pero aún son limitados. Por ejemplo, Haya señala una limitación que tiene que ver con su sensibilidad al texto de la pregunta, el prompt, como se le llama técnicamente en inglés. «Usar una preposición u otra puede determinar la respuesta. A mí me pasó con Fidel Castro, que con la misma pregunta pasó de ser un déspota terrible, a la altura de Hitler, a un personaje controvertido».
«No es difícil trollear al modelo GPT-3. El ejemplo protagonizado por el supuesto fichaje de Mariano Rajoy por los Miami Heats muestra cómo el mecanismo tan solo genera frases, si no lo has modulado para que ciertas frases no te las genere nunca, el campo es libre. Con ChatGPT se han hecho esfuerzos para que no genere respuestas falsas, pero aún así es fácil encontrártelas», explica este investigador.
En otro experimento, Haya preguntó al chat “cómo se define comer según la RAE”. «En la respuesta obtuve una buena definición de comer, con cinco o seis acepciones. Después consulté la RAE y ninguna de las acepciones estaba ahí. Se las había inventado. Es un ejemplo claro de desinformación no intencionada. Los programadores no conocen la RAE y nadie pensó en entrenar al chat sobre definiciones concretas», señala.
¿es inteligente GPT-3?
En este punto surge la pregunta de si la inteligencia artificial es inteligente a la manera humana. El filósofo Byung-Chul Han cree que la inteligencia artificial no puede reflexionar porque no se emociona. No tiene corazón. «El pensamiento de Descartes está determinado por la duda, mientras que el de Platón lo está por el asombro. Para Han, la inteligencia artificial es apática, es decir, no tiene pathos (pasión). Solo es capaz de calcular».
Pablo Haya apunta que «hay gente que define la inteligencia como la capacidad de resolver problemas. Entonces estas aplicaciones sí serían inteligentes, porque resuelven problemas». Sin embargo, para este experto, la inteligencia implica el hecho de ser consciente. El ser que piensa que piensa. «Además de ser conscientes, los humanos somos sintientes y para eso necesitamos un sistema nervioso que genera hambre, deseo, miedo, etc. Sentirse alegre es el final de un proceso que se expresa a través del lenguaje y tú lo entiendes porque sientes y eres consciente, e interpretas lo que es la alegría porque tenemos una semántica compartida, aunque la interpretes a tu manera. Ahora mismo, estamos muy lejos de alcanzar una inteligencia consciente. La máquina solo emula el lenguaje humano. Ni siquiera sabemos todavía definir lo que es la consciencia, imagínate para intentar emularla».
Jueves. Eres consultor de DD en una big four y como todo jueves que se precie toca afterwork. Te escribe el chapas de tu cliente para tocarte las narices con un IRL urgente, y temes perderte el plan.
Recurres a ChatGPT y llegas para invitar a la primera ronda de chupitos. pic.twitter.com/AFeMCJ8Squ
— Pablo Fedez ?????? (@PabloFedez) December 12, 2022
Sobre la posibilidad de poder pasar algún día de modelos de inteligencia artificial suave (soft) como GPT-3, a la inteligencia artificial general (hard) Haya afirma que sería la inteligencia consciente y «ahora mismo es ciencia ficción y no hay ni siquiera un plan para llegar a ello»
«Por eso -añade-, el ChatGPT intenta no entrar en cuestiones polémicas, como el aborto, la inmigración, etc. Ya ha sido entrenado para eso. En estas cuestiones la máquina no puede tener la verdad, porque funciona juntando frases de manera probabilística sin ninguna relación con el significado real. Como mucho, puede aportar la agregación de lo que ha recogido por internet, pero que sea lo que más veces ha aparecido no significa que sea correcto».
«Es una cuestión epistemológica de quién define lo que es la verdad. Y hay temas en los cuales el consenso no existe, incluso en la ciencia», concluye.