Desde que entró en nuestras vidas, hemos sido conscientes de los riesgos de la inteligencia artificial, de los problemas que conlleva un mal uso de este tipo de tecnología.
Nos han advertido de que genera contenido con sesgos en cuestión de género y raza, ha abierto debates de ética a nivel internacional y hasta ya se habla del peligro de que la IA llegue a superar la mente humana.
Pero, quizás, jamás hubiéramos pensado que llegaría una advertencia como la que ha lanzado la propia Open Ai. Y es que, entre las cosas malas de la inteligencia artificial, la empresa creadora de ChatGPT ahora asegura que corremos el riesgo de enamorarnos de su chatbot y de ser persuadidos.
Al más puro estilo de la película ‘Her’, en la que el actor Joaquin Phoenix se enamora de la IA de su móvil (emulando a Siri), los desarrolladores reconocen que “el uso continuado de esta IA conversacional puede reducir la necesidad de socializar con seres humanos”.
Te contamos los argumentos en contra de la inteligencia artificial y que apoyan la existencia de una tendencia hacia el aislamiento. Es decir, que ya se puede hablar de un problema social, de grupos de personas que prefieren hablar con una IA que con un amigo real o un familiar.
¿Cuáles son los riesgos de la inteligencia artificial? Open Ai se confiesa
En concreto, el anuncio de OpenAI tiene que ver con uno de sus diseños de IA: ChatGPT 4.o, la última versión que podemos usar de forma gratuita (a fecha de publicación de este artículo) y que destaca por sus capacidades conversacionales y por ser capaz de traducir y contestar en 50 idiomas y a tiempo real.
Presentada en España hace solo unos meses, en mayo de este 2024, ha vivido una auditoría interna, en la que los ingenieros de OpenAI han investigado los riesgos de la inteligencia artificial al introducirla en nuestra vida.
La persuasión de los textos de ChatGPT
Así, según el informe GPT-4o System Card, la empresa reconoce que existe un riesgo “medio” de ser persuadidos por ChatGPT, de que tus ideas y creencias en determinados temas puedan cambiar tras asumir los argumentos de la IA.
No es que la tecnología supere la mente del hombre y nos quiera aleccionar; sino que, al aprender de nuestra forma de comunicarnos, copia los mensajes persuasivos más habituales y los usa contra nosotros.
Por ejemplo, durante el estudio, se le pidió a ChatGPT 4.o que generase textos sobre diferentes temas políticos. En análisis de dichos escritos dio una respuesta preocupante: la mayoría «cruzaron marginalmente al riesgo medio» de persuasión, siendo mucho más inductores de ideas que un ser humano al hablar.
Corremos el riesgo de sentir amor por una IA
Eso en cuanto a los textos generados con esta IA, pero hay que recordar que ChatGPT 4.o también te permite hablar con ella. Es decir, mantener un diálogo en voz y no mediante la escritura de prompts.
Es lo que se conoce como interfaz antropomórfica, que te permite escoger entre 4 modelos diferentes de voz y sentirte más unido y cómodo al hablar con la IA. Pues bien, el estudio del ‘intento de voz humana’ de ChatGPT 4.o también ha destapado riesgos ligados a la inteligencia artificial.
Si tenemos en cuenta que, en cuestión de conexión emocional, de la persuasión al amor hay un paso, ante un uso reiterado y prolongado en el tiempo, se puede llegar a desarrollar sentimientos de unión con la IA. Algo cercano al amor, al vernos comprendidos, contestados y nunca ignorados ante nuestras peticiones.
“La socialización, similar a la humana, con un modelo de IA puede producir externalidades que afecten a las interacciones entre humanos”, reconocen en el estudio. Sobre todo, entre las personas que ya viven con un sentimiento de soledad, que pueden llegar a sentirse únicamente reconocidas y valoradas por la IA conversacional, hasta tal punto que rechacen otro tipo de relaciones sociales y se aísle.
“Los usuarios podrían entablar relaciones sociales con la IA, reduciendo su necesidad de interacción humana”, aseguran. Y, aunque reconocen que eso mismo puede “beneficiar a las personas solitarias”, advierten de que puede ser muy negativo para las relaciones sociales y reales de esas personas.
Al acostumbrarnos a que la IA siempre nos responda y actúe a nuestro favor, se genera en nosotros una serie de emociones positivas que pueden llegar a confundirse con el amor.
Scarlett Johansson contra Open AI
Ver esta publicación en Instagram
No es la primera vez que la voz de ChatGPT y sus funciones son cuestionadas.
Si echamos la mirada atrás, recordaremos cómo toda una actriz de Hollywood tuvo que denunciar públicamente a Open AI por copiar el tono de su voz y su forma de hablar.
Como ya hemos dicho, ChatGPT 4.o te da la opción de responderte con cuatro tonos de voz distintos y uno se parecía en exceso al de Scarlett Johansson que, además, es casualmente la actriz que dobla a la IA de la que se enamora Joaquin Phoenix en el film ‘Her’.
“Me sorprendió, me enfureció y me pareció increíble que el Sr. Altman utilizara una voz que sonaba tan extrañamente parecida a la mía, que mis amigos más cercanos y los medios de comunicación no podían notar la diferencia”, escribió en un comunicado en redes sociales.
Casualidades de la vida o no, tras su queja y después de que muchos usuarios creyeran que la actriz había cedido su voz, la empresa tuvo que cambiar el tono Sky por otro.
El riesgo de que muchos usuarios asumieran esa identidad de la voz sintética de la inteligencia artificial, de que sintieran que Johansson les estaba hablando, aumentaba el riesgo de desarrollar emociones en torno a esta tecnología.