La inteligencia artificial (IA) aparece cada vez con más frecuencia en los medios de comunicación. Lejos de tratarse de una reacción exagerada al avance del aprendizaje de las máquinas, andamos un camino de no retorno en el que sumaremos más y más inteligencias artificiales a nuestras vidas. Pero ¿alguien ha pensado en las consecuencias de todo esto? ¿Y en su ética?
Tenemos el placer de reunirnos en una céntrica cafetería con José Ignacio Latorre, catedrático de Física teórica y director del Centro de Ciencias de Benasque Pedro Pascual, con motivo de la presentación del que es su segundo libro: ‘Ética para las máquinas’. El primero trataba de mecánica cuántica, ahora toca el turno de la ética que las máquinas necesitan.
– ¿Cómo podemos crear máquinas que imitan el cerebro, si no somos capaces de entenderlo del todo?
Es cierto que no sabemos cómo funciona en detalle el cerebro, pero sí tenemos ideas sobre cómo funciona. Hemos avanzado mucho. Una de las ideas notables recientes es que el procesamiento de redes neuronales ha mejorado mucho con las redes neuronales profundas. Cuando acumulamos capas de neuronas artificiales, hemos visto que las primeras, por ejemplo, para tratar una imagen, encuentran rectas y ángulos. Capas posteriores la dotan de un sentido simbólico, dicen “¡ah, es una silla!”. Las más profundas dicen “es un gato con una silla”. Hemos entendido esta estratificación de capas simbólicas. Eso lo tiene nuestro cerebro y eso es lo que estamos implementando. Aunque no tengamos el detalle de cómo funciona el cerebro, sí hemos entendido ciertos principios que están dando este salto brutal.
– ¿Por qué un programa de ordenador requiere un marco ético frente, por ejemplo, a una herramienta manual como un martillo?
El martillo y los objetos físicos te dan poderío físico. Pero otros pueden dar miedo; por ejemplo, la bomba atómica. Necesita un marco ético porque el poderío es extremo. Los ordenadores necesitan marcos éticos porque su potencia de cálculo puede condicionar nuestra vida de forma severa.
La inteligencia artificial entra al terreno de tomar decisiones en lugar de los humanos. Ahí la ética está en el corazón de la inteligencia artificial. Cuando las máquinas no solo levantan peso, sino que toman decisiones (¿qué está bien?, ¿qué está mal?), el nivel de implicación de ética es muy superior.
“Cuando hablamos de ética tenemos que entender qué es un dilema”
– Hablando de decisiones, intentamos enseñar ética a las máquinas pero experimentos como ‘Moral Machine’ (MIT) nos han enseñado que el consenso moral no existe.
Ese es el paradigma. Cuando hablamos de ética, tenemos que entender qué es un dilema: hay dos opciones y ninguna es la buena. Ahí es donde entra la ética a fondo en el ejemplo del coche. Tienes que decidir. Ahí donde tenemos que empezar a legislar porque hemos de tomar una decisión. El coche autónomo ha de hacer algo, lo uno o lo otro, y no vale decir “no legislo”, porque el coche algo va a hacer.
El miedo a enfrentarse al dilema es lo que está retrasando la legislación. No solo en inteligencia artificial, también en eutanasia, hasta qué punto podemos ser aumentados… Debates que implican dilemas que la sociedad como un todo no se atreve a decidir. Lo primero que tiene que haber es educación y reflexión. No se legisla por falta de conocimiento y preparación, pero también porque no es fácil. Los temas como el aborto, la eutanasia, la reproducción asistida… Muy poco a poco se van haciendo leyes, cada país de forma diferente, con todos los países mirándose entre sí. Todos avanzan hacia una convergencia. Con la IA estamos al principio del camino.
Máquinas como Aiva componen canciones realmente conmovedoras. ¿Necesitan tener una etiqueta “made by AI” al estilo de los transgénicos? “Esta canción ha sido compuesta por una máquina”.
Hay un videojuego en el que toda la música es artificial. Las legislaciones avanzan tortuosamente. Va a pasar mucho tiempo en el que se van a ir afinando. Primero necesitas grandes principios. En justicia te dirían, por ejemplo, el principio de culpabilidad. Luego vienen directrices y detalles.
“cuando el progreso llega, una mente lúcida lo usa para matar a otro”
Todos pensamos que las máquinas tienen que hacer el bien, pero eso tiene que quedar escrito. Debemos bajar los principios a directrices más concretas, y finalmente una ley interpretable por un juez, ya sea un juez real o virtual. Desde el Derecho romano al nuestro ha habido cambios sustanciales. Empecemos este camino, y ojalá sea normativa supranacional.
– ¿Eres optimista frente al uso ético de la IA? En el libro se leen algunos axiomas que pueden asustar, como este: “No existe un solo avance tecnológico que los humanos no hayamos usado en contra de nuestra propia especie”.
Creo que soy el único hombre optimista en todo el planeta. Pero soy consciente de los aspectos negativos del progreso. Inventamos el fuego y quemamos al enemigo, inventamos la balanza y con las catapultas lanzamos piedras, descubrimos el átomo y hacemos la bomba atómica, entendemos la biología y creamos armas químicas. No hay excepción: cuando el progreso llega, una mente lúcida lo usa para matar a otro. Esa es una tendencia. Otra es que siempre adoptamos la tecnología de forma irreflexiva. A lo sumo, la regulamos.
Una idea muy naíf me dice que tal vez nos podemos ahorrar lo malo que traiga la inteligencia artificial, sobre todo en lo que tiene que ver con puestos de trabajo. Se podría haber hecho una Revolución industrial sin una época fea, pero se necesitaba gente que lo entendiese. Y no la hubo. Ahora podríamos haber aprendido del pasado, ¿no? Ya veremos…
“La gente no entiende un mando a distancia”
– ¿La gente entiende la IA y sus posibilidades?
Nada. La gente no entiende un mando a distancia. La mayoría de la gente no tiene ninguna conciencia de ello. Para bien o para mal será la clase educada, a través de sus representantes en el parlamento, quien decidirá esto.
– “Programemos bajo el prisma de que cada acción sobre un tercero debe ser considerada como si fuera hecha sobre uno mismo”. Parece ideal.
Eso es un principio ético tal y como lo analizó Immanuel Kant, el imperativo categórico. El ejemplo que daba era: «Actúa como si fueses la persona que va a recibir la acción». Esa es una idea, pero hay otras ideas muy chulas como el utilitarismo de Stuart Mill y Bentham: «Actúa de forma que reciban el bien el máximo número de personas posibles».
Como ejemplo, un atracador entra en un banco y está matando gente. Hay una IA que tiene que decidir entre matarlo a él o no. El imperativo categórico de Kant lo dejaría vivo, pero si usas el utilitarismo no, porque está matando a mucha gente. Hay principios éticos diferentes que tienen respuestas diferentes si las programas.
– ¿Seremos capaces de imbuir a las máquinas de decisiones cuando nosotros somos tan volátiles?
Sí, es cierto lo que dices, pero eso se tiene que entender como datos con ruido o inconsistentes. Hay técnicas para entrenar redes neuronales de forma que infieran de datos erróneos e inconsistentes algo correcto. ¿Por qué no vamos a poder usarlas?
En el fondo hemos de aceptar un error en nuestra forma de actuar. En un dilema tú dices “sí”, pero con un margen. Si combinas las respuestas de todo el mundo, al final tienes un marco correcto. Creo que vamos a ser capaces de eliminar esta aleatoriedad humana que parece ensombrecer las decisiones.
“Si tengo un hijo, voy al médico y sé que Watson es un asesor médico brutal, le voy a pedir al médico humano que mire lo que dice Watson”
– ¿Y a nivel de aceptación social? ¿Aceptaremos lo que nos aconsejen?
La historia dice que somos increíblemente rápidos en adoptar la tecnología. Desde que llega internet a que todo esté en internet, han pasado 20 años. Han perdido negocios y han venido otros, pero hemos aceptado la tecnología sin pensar.
Si tengo un hijo, voy al médico y sé que Watson es un asesor médico brutal, le voy a pedir al médico humano que mire lo que dice Watson. Voy a aceptar que la decisión es más sabia en manos de una máquina, o que la combinación de ambos es mejor. Tenemos un currículum de haber aceptado todo.
– ¿Pediremos, por ejemplo, al personal de rescate que se actualice en forma de cíborg? Un bombero, por ejemplo.
Tú quieres salvarte. Si tienes un hijo sietemesino y necesita una incubadora con la que aumentarle, lo vas a aceptar. La aceptación de ser un humano aumentado es mucho más profunda de lo que la gente cree. Yo llevo gafas, sin gafas soy otro humano. Con gafas, soy un humano aumentado.
También tomo medicamentos, cambiando la química de mi cuerpo. Por eso vivimos 80 años. No hemos dudado cuando está en juego la vida. Queremos sobrevivir, y vivir bien. Los humanos van a estar mucho más abiertos a aumentarse con inteligencia artificial de lo que la gente cree.
– La aplicación masiva de la IA puede erradicar el empleo a nivel mundial. ¿Estamos preparados para el ocio en abundancia y convivir con nosotros mismos? El verano aumenta los divorcios…
Es una realidad que antes de la Revolución industrial se trabajaba 80 horas. Ahora trabajamos 40 y tenemos sábado y domingo libres. Primero bajaremos a 35 horas, pero cada vez se necesita menos trabajo humano. Creo que vamos a ir hacia el entretenimiento y el ocio. ¿Qué ha hecho la gente con sus horas libres? Hay gente que se pasa cinco horas delante del televisor al día. En Estados Unidos, el promedio es más de cuatro. Ahora sobrarán siete horas más al día. ¿Sabes qué? Creo que van a seguir viendo la televisión. No veo por ningún lugar algo que no ahonde en la pereza humana. El uso indiscriminado de la inteligencia artificial va a dar lugar a una sociedad más aletargada.
Nobbot | Átomo, gen, bit y neurona: los ingredientes científicos del siglo XXI
Imágenes | José Ignacio Latorre, istock/Meeerkat, iStock/Pitiphothivichit, iStock/pixinoo, iStock/mycan