El desarrollo de la Inteligencia Artificial, así como el debate general sobre sus implicaciones éticas y culturales olvida las diferencias locales, en especial las de aquellas sociedades que se hallan en la periferia de las geografías en las que se crea la tecnología.
Esta diversidad regional constituye un punto ciego crítico que ha quedado en gran parte inexplorado y representa una oportunidad para avanzar en el debate sobre la ética de la Inteligencia Artificial. Hoy, los análisis están sesgados hacia las perspectivas sostenidas en los EE.UU. y Europa Occidental.
Para paliar esta situación, Alexa Hagerty, de la Escuela de Estudios Superiores de Ciencias Sociales, de París, e Igor Rubinov, de la Universidad de Princeton, han dirigido un estudio en el que se han analizado 800 artículos de revistas académicas y monografías en más de una docena de idiomas.
Algunas de sus conclusiones, no por esperadas, dejan de causar inquietud acerca del mundo que estamos cincelando con algoritmos. Así, por ejemplo, su investigación viene a confirmar que las tecnologías impulsadas por la IA muestran sesgos que afianzan las divisiones sociales y exacerban la desigualdad, particularmente entre grupos marginados. «Nuestra revisión de la literatura indica que este patrón existe a escala global, y sugiere que los países de ingresos bajos y medianos pueden ser más vulnerables a los efectos sociales negativos de la IA y es menos probable que disfruten de los beneficios consiguientes», advierten.
una inteligencia artificial que imagina el porvenir
La propia concepción de la tecnología, según Hagerty y Rubinov, se entrelaza con la cultura local de forma sutil, algo que podemos comprobar al imaginar el futuro. Cuando una sociedad desarrolla una tecnología, lo hace porque ha alcanzado el dominio tecnológico y porque cuenta con un relato que influye en la imaginación de los creadores de dicha tecnología. Por ejemplo, Martin Cooper creó el primer teléfono móvil después de ver al comunicador del Capitán Kirk en un episodio de Star Trek .
La cultura de una sociedad y su tecnología están estrechamente conectadas. La popularidad de películas violentas de ciencia ficción como Terminator ha influido en la forma en que los estadounidenses imaginan la tecnología, lo que les ha llevado a temer a los robots asesinos. Por el contrario, en la imaginación cultural japonesa, es más probable que los robots estén asociados con Astro Boy, un amable personaje de manga, lo que lleva a los japoneses a ser menos remisos a la hora de imaginar un futuro en el que convivan robots y personas. Otros eruditos apuntan a que esta confianza en los robots tiene una raíz religiosa: el sintoísmo reconoce que todos los seres (incluidos los robots) tienen espíritu.
tecnología en su contexto cultural
La estrecha relación entre lo social y lo tecnológico influye en cómo se diseña la Inteligencia Artificial, pero más importante aún, en cómo se utiliza. La tecnología rara vez se utiliza en condiciones de laboratorio o por personas con el mismo perfil demográfico que quienes la diseñaron.
Por ejemplo, en Arabia Saudita las mujeres no pueden viajar al extranjero sin el consentimiento firmado de sus tutores varones: maridos, padres, hermanos o hijos adultos. Para reemplazar al «comprobante amarillo» se desarrolló una aplicación móvil llamada «Sí, señor». Como parte de la estrategia de gobierno electrónico de Arabia Saudita, la aplicación alerta a los familiares masculinos sobre los movimientos de mujeres. a través de mensajes SMS.
Es un ejemplo en el que la tecnología en sí no es necesariamente parcial o defectuosa, pero se implementa bajo las condiciones sociales existentes con resultados que son tanto predecibles (se impone el status quo de sometimiento femenino) como sorprendentes (las mujeres encontraron formas de hablar en contra de la tecnología, en algunos casos utilizando otras tecnologías, como Twitter).
el poder sutil de las palabras
Otro reto a menudo insalvable para la Inteligencia Artificial es el del lenguaje. Al traducir conceptos como «justicia» y «privacidad» en todas las culturas, podemos esperar encontrar traducciones erróneas y malentendidos. Los términos tienen distintos matices en distintos idiomas. En 2017, un error de traducción automática provocó que la publicación de un hombre palestino en Facebook de «buenos días» se tradujera como «atacarlos», lo que llevó a su arresto por por la policía israelí.
Incluso cuando la traducción automática se vuelve cada vez más sofisticada, y los errores de este tipo son menos probables, el lenguaje tiene un significado sutil. En un caso más matizado, el botón «Me gusta» de Facebook se traduce como «curtir» en portugués brasileño, que se asemeja más a la palabra que, en inglés, se utiliza para «disfrutar». La renuencia de las personas a «disfrutar» de los eventos negativos condujo a un filtrado algorítmico con consecuencias políticas para el activismo por los derechos de las tierras indígenas en Brasil.
Los antropólogos Rodrigo Ochigame y James Holston siguieron el caso de un colectivo indígena que lucha por recuperar el control de su tierra de manos de la poderosa industria agroalimentaria. El grupo usa Facebook como su principal modo de difusión de sus reivindicaciones y, a menudo, publica videos de actos violentos llevados a cabo por milicias privadas pagadas por esa industria, así como fotos de los funerales de activistas indígenas asesinados.
Los investigadores encontraron que, aunque muchos usuarios de Facebook consideraban que las publicaciones contenían información importante, eran reacios a «disfrutar» de los posts de violencia y opresión. Debido a que a los usuarios no les gustaban las publicaciones, el algoritmo de filtrado las consideró impopulares y redujo su visibilidad.
En consecuencia, los activistas de derechos humanos encontraron dificultades para difundir su mensaje a través de las redes sociales. Este no fue un caso de mala traducción, sino una ilustración del poder sutil de las palabras. Los principios de la IA son términos inevitablemente cargados de valores, densos, con significado. Tales términos, incluso cuando se traducen cuidadosamente, pueden tener distintas connotaciones y significados en diferentes culturas.
inteligencia artificial para un futuro mejor
Otro término que da lugar a distintas interpretaciones y que se halla muy presente en los debates sobre Inteligencia Artificial es el de “privacidad”. Tal como explican los autores de este estudio, “es probable que un estadounidense que visite los Países Bajos se sorprenda por la falta de cortinas en las ventanas, con familias cenando y viendo la televisión en una escena que se puede contemplar desde la calle. Es probable que los estadounidenses hayan crecido con el ideal de que la privacidad es un derecho natural del individuo, mientras que alguien que creció en China es más probable que considere la privacidad como algo que pertenece a la familia más que al individuo”.
Otro ejemplo: En los EE.UU., las conversaciones sobre el Reglamento General de Protección de Datos (GDPR) giran en torno a «privacidad», pero en Europa, la discusión se centra en la «protección de datos». Esto revela distintas concepciones culturales y preocupaciones sobre la relación entre individuos, gobiernos y corporaciones.
Hagerty y Rubinov creen esencial, en conclusión, atender a esta diversidad para impulsar una Inteligencia Artificial que contribuya un futuro mejor para todos. “La IA puede ser una fuerza para disminuir las divisiones y crear un mundo más igualitario pero, para ello, debemos determinar qué tecnologías debemos producir y con qué intención, analizar su impacto en las vidas humanas en todas partes de la Tierra, y evaluar si están apoyando o socavando las sociedades que queremos construir para nosotros y las futuras generaciones”, concluyen.
una ciudad grande, sucia, ruidosa
Terminamos este artículo con un texto de Alberto Olmos, extraído de su libro Cuando el Vips era la mejor librería de la ciudad que ilustra de forma certera la complejidad del lenguaje, en este caso utilizando una coma que cambia el sentido de una misma frase:
– «La ciudad era grande, sucia y ruidosa.
– La ciudad era grande y sucia, ruidosa.
– La ciudad era grande y sucia y ruidosa.
– La ciudad era grande, sucia, ruidosa».
¿Será capaz la Inteligencia Artificial de captar estos matices? Quizás lo consiga con el tiempo CPT-3, esa máquina que se está tragando todo el conocimiento de internet pero que no tiene ningún conocimiento coherente del mundo ni conciencia de sí misma.