Llevamos tiempo hablando sobre la inteligencia artificial, que cada vez cubre más noticias de actualidad a medida que los algoritmos superan algunas capacidades humanas y deja otras (como el periodismo) relativamente intactas.
Es muy complejo marcar una clara diferencia entre algoritmo e inteligencia artificial, ya que se trata más bien de un continuum entre funciones sencillas que requieren de mucho poder de cálculo y la capacidad de pensar humana. Y ahí radica el nuevo enfoque de la inteligencia artificial.
Hemos cambiado nuestra manera de ver nuestro cerebro, y hace tiempo que sabemos que no somos individuos, sino dividuos. Si la IA intenta simular un cerebro humano, qué menos que programarla con los últimos conocimientos sobre nuestro proceso de toma de decisiones.
Nuestros cerebros no son como pensábamos: ¡somos dividuos!
Hace tiempo que la neurología sabe que el cerebro no es una unidad indivisible que opera como un todo o bloque para conformar lo que somos. El concepto del yo es mucho más complejo de lo que pensábamos hace décadas, y si no somos capaces de comprender qué es la inteligencia, es muy complejo que sepamos replicarla en las máquinas. Quizá debido a eso esta siempre se encuentre a varias décadas de dar resultados tangibles.
David Eagleman, uno de los más prestigiosos neurocientíficos y divulgadores de nuestro tiempo, pone un ejemplo sencillo usando gaviotas argénteas:
«Si se coloca un huevo de color rojo en un nido de gaviotas argénteas, el animal se vuelve loco. El color rojo activa la agresividad del ave, mientras que la forma del huevo activa su instinto de empollar: el resultado es que simultáneamente intenta atacar el huevo e incubarlo.»
Este tipo de comportamiento dual es fácil de observar en este ave, pero procesos similares (a los que Eagleman llama programas zombies o equipos de rivales) los tenemos a miríadas en nuestros cerebros humanos. Hoy día sabemos que en el interior de nuestro cerebro hay una lucha constante por el control consciente de nuestro cuerpo y actos, debido a que la evolución ha ido duplicando y triplicando distintas soluciones al mismo problema.
Por ejemplo, el modelo triúnico del cerebro divide este en el complejo-R (cerebro reptiliano), el sistema límbico y el neocórtex, cada uno con una respuesta diferente ante un suceso que nos de miedo. Del resultado de los distintos programas zombies surgirá nuestra acción ante el suceso.
Pero hay cientos de procesos más, escondidos en nuestro cráneo, que luchan por llevarse el control de nuestra voluntad y “libre albedrío”.
De enseñarlo todo a dejar a las máquinas aprender
En 1950 pensábamos que el cerebro era un único bloque de memoria con todos los conocimientos almacenados en él para la toma de decisiones, y por eso la IA nació en forma de grandes superordenadores en el que todas las posibles opciones estaban preprogramadas. Por supuesto, fue un fiasco.
El siguiente salto en inteligencia artificial lo dieron los sistemas de aprendizaje autónomos o el machine learning. El enfoque ahora era: los humanos no se saben de memoria el mapa de su ciudad, y en lugar de eso aprenden las normas de circulación. Mejoramos bastante nuestras máquinas, pero la IA seguía coja en cuanto a toma de decisiones.
A medida que llevábamos una misma IA de un problema a otro nos dimos cuenta de que nuestra inteligencia tiene cierta flexibilidad. Por ejemplo, establecemos paralelismos entre el ajedrez y las damas, ahorrándonos parte del proceso de aprendizaje. A principios de 2017, esta forma de pensar fue aplicada al machine learning mediante la consolidación de peso elástico, permitiendo que una IA usase parte de lo aprendido en una tarea para la siguiente.
De nuevo, supuso un gran avance, pero todavía quedaba mucho para que la IA se acercase al cerebro humano. Faltaban capas, conflicto, discusiones internas y programas zombies. Faltaba caos.
Redes neuronales convolucionales para imitar el conflicto humano
Parece ser, cada vez hay un mayor consenso al respecto, que si los humanos somos inteligentes es porque nuestro cerebro se encuentra en conflicto permanente consigo mismo. Una serie de capas de decisión pugnan por cierto protagonismo en nuestras decisiones, y la conciencia es el resultado de esta lucha interna de la que no nos damos cuenta. ¿Y si lo aplicamos a las máquinas?
Lo cierto es que esta aproximación al cerebro humano ya se usa en forma de redes neuronales convolucionales (CNN o ConvNet), generalmente aplicadas a procesamiento de imágenes o reconocimiento de patrones.
Por ejemplo, cuando un ser humano ve una escena como la de arriba es capaz de aplicar varios filtros o transformadas para distinguir multitud de capas: colores, contornos, formas, gradientes… y la idea es llevar el mismo proceso de lucha interna por el entendimiento de la realidad a las máquinas. Hasta aquí, perfecto, un paso más hacia el desarrollo de una verdadera inteligencia artificial.
¿Te fiarías de una máquina tan caótica como un humano?
No obstante, este tipo de procesos mentales, especialmente si están basados en elementos casi caóticos cuyo resultado no puede predecirse de antemano, pone en vilo a muchos agentes.
¿Queremos máquinas con procesos mentales tan complejos como los de los seres humanos? En reconocimiento de la realidad no parece haber demasiado conflicto, pero sí cuando llevamos estos procesos a la toma de decisiones.
Tanto que el Parlamento Europeo está trabajando en un marco legal para anticipar los problemas que puedan surgir de la convivencia con robots lo suficientemente inteligentes como para decidir qué hacer por sí mismos.
El ensayista Michel de Montaigne dijo «encuentro tanta diferencia entre yo y yo mismo como entre yo y los demás» para explicar que no somos siempre la misma persona, y es una facultad que quizá no querríamos ver en las máquinas. ¿Quién necesita que el tostador tenga días y días?
Hay cierto factor caótico en nuestra neuroquímica, regalo de la evolución para adaptarnos al entorno, y otorgar ese tipo de atributos de inestabilidad mental es un tema ético a debatir junto con las soluciones de ingeniería humana ante el cambio climático o la manipulación de nuestros propios genes. Va a ser un siglo interesante.
En Nobbot | Enseñar a robots para conocernos a nosotros mismos
Imágenes | iStock/bankrx, iStock/SIphotography, Christo Anestev