La inteligencia artificial, llevada al límite, es aquella indistinguible de los seres humanos. Y los seres humanos nos deprimimos. ¿Significa eso que deberíamos incluir factores de depresión en las máquinas? Un momento, ¿es eso posible? ¿Podría deprimirse una IA? ¿Serviría de algo? ¿Qué gana un algoritmo así?
Los robots depresivos no son algo nuevo. Marvin, el robot cabezón de ‘Guía del autoestopista galáctico’ (Douglas Adams, 1979), vivía deprimido. Adams había atado los conceptos de superinteligencia y capacidad para deprimirse. ¿Es posible que la inteligencia artificial pase por este estado tan humano?
¿Por qué nos deprimimos los humanos?
La depresión es un mecanismo complejo que a menudo se confunde con la tristeza. Quizá porque tiene síntomas similares cuando la depresión es visible. Sin embargo, esta enfermedad va más allá y se relaciona con el dolor y malestar psicológico. Se trata de un trastorno agudo que afecta al cerebro.
Los motivos son muy variados, pero la investigación apunta a dos grandes causas:
- Exógena, o que viene de fuera (reactiva), la cual «obedece a una causa externa generalmente bien definida”, como la pérdida de un familiar.
- Endógena, o que viene de dentro, a menudo relacionada con la “alteración biológica”.
Pero tanto una como otra tienden a provocar desequilibrios químicos que generan a su vez conductas que caracterizamos como depresión. Los neurotransmisores serotonina, dopamina, noradrenalina o la hormona cortisol son alguna de las sustancias que pierden el equilibrio.
No son malos per se, y de hecho los necesitamos para vivir. Pero su exceso o defecto generan comportamientos depresivos y de otro tipo. Una vez que sabemos grosso modo y de una forma extraordinariamente simplista por qué nos deprimimos los humanos, ¿podríamos aplicarlo a las máquinas?
¿Podemos diseñar y construir una máquina deprimida?
Quizá, pero para ello se necesitaría cumplir, como mínimo, un par de condiciones. De lo resaltado arriba:
Afecta al cerebro. En alguna ocasión hemos mencionado cómo cuando hablamos de ordenadores usamos el cerebro como modelo. “El cerebro funciona como un procesador”, y viceversa. La capacidad de procesamiento y de almacenar memoria hacen que procesador y red neuronal biológica sean términos comparables en cierto sentido. Esto parece indicar que podría replicarse cierto grado de depresión en las máquinas. Sin cerebro no hay depresión.
Provocar desequilibrios químicos. Las máquinas no tienen el tipo de química de otras formas de vida. Pero no se puede decir que no tengan química. La diferencia entre sus redes neuronales y las nuestras está en las unidades usadas. Nosotros utilizamos neuronas, y ellas compuertas lógicas en circuitos integrados. Pero ambos empleamos redes para procesar información.
De modo que las máquinas tienen cerebro (procesador) y hacen uso de la química para el intercambio de información. Vamos por buen camino porque son dos factores claves y necesarios en la depresión. Pero, antes de plantearnos por qué querríamos máquinas deprimidas, veamos para qué nos deprimimos.
¿Para qué nos deprimimos los humanos?
Antes nos hemos preguntado por qué nos deprimimos, pregunta en relación a las causas. Ahora nos cuestionamos del para qué, cuestión que invoca a los motivos tras la enfermedad. ¿Qué ventaja nos aporta a los seres humanos el poder estar deprimidos? ¿Tiene alguna?
Nos consideramos un animal superior frente, por ejemplo, a las hormigas, porque podemos pensar. Ellas no lo hacen a nuestro nivel, y tampoco tienen la capacidad de estar deprimidas. ¿Aporta la depresión alguna ventaja evolutiva, o tiene la utilidad del apéndice y el dedo meñique del pie? ¿Es un error biológico, un glitch informático en nuestro procesador?
Randolph M. Nesse es un profesor de Ciencias de la vida en la Universidad Estatal de Arizona. Hace años se topó con una paciente cuya depresión surgió de intentar tocar un instrumento sin habilidad para la música. En cuanto dejó de intentar seguir el sueño de su madre, la mujer dejó atrás los síntomas.
Esto no encajaba en el marco tradicional de la depresión (pura química o daño cerebral). De modo que Nesse empezó a cuestionarse la depresión como una adaptación biológica. Podemos verlo como la inflamación, que es una señal de una mala postura, un alimento en mal estado, etc. ¿Qué indica la depresión?
Nesse ha aislado algunas posibilidades para que la depresión tenga un motivo evolucionista. Un plus de adaptabilidad. Alguno de sus estudios posteriores parece apuntar a que la depresión puede responder a varios motivos:
- Llamada de atención en busca de ayuda.
- Indicativo de la necesidad de ceder en un conflicto.
- No correlación entre lo aportado a un proyecto y su retorno.
Hay indicios de que la depresión es útil para las personas, dato que no ayudará demasiado a los enfermos a corto plazo. Pero desde el punto de vista del estudio del cerebro y las redes neuronales es clave.
¿Tiene sentido deprimir a las máquinas?
Pobres máquinas. Apenas piensan, no han desarrollado conciencia de sí mismas y ya las estamos fastidiando con nuestras ‘cosillas’ de humanos. Primero las programamos dummies. Luego empezamos enseñándoles a pensar como niños. Tras ello recurrimos a los datos y machine learning. Muchos datos, cuantos más mejor.
Las enseñamos a relacionar unos problemas con otros para obtener cierta plasticidad, e incluso a que tengan ‘conflictos’ mentales a la hora de decidir. Y mediante la función de optimización, les creamos bucles de mejora comparables con el placer. Ya puestos, ¿por qué no programar depresión? Trae ventajas.
¿Se puede programar la empatía?
Junto con la inteligencia, la empatía es un atributo de los animales ‘superiores’. Las bacterias no son empáticas. Si ayudan es porque sus objetivos vitales se alinean con los nuestros. Cuando estos objetivos no coinciden, las llamamos gérmenes. La empatía es un mecanismo para ponerse en el lugar del otro.
Una de las características de la psicopatía es la falta de empatía unida a la inteligencia. ¿Queremos máquinas superinteligentes pero a las que nuestros sentimientos no les importen? No parece una línea de programación muy inteligente. Lo ideal es que máquinas y personas piensen en términos similares.
Máquinas capaces de elegir mejor
Antes hemos mencionado la depresión como adaptabilidad. Si nos ayuda a tomar mejores decisiones (eludir el peligro, huir del conflicto, etc.), igual nos conviene programar a las máquinas con la posibilidad de deprimirse. Máquinas más flexibles tienen más probabilidades de éxito que aquellas que son más rígidas.
Cuando programamos chatbots para interactuar con los clientes, el que sepan negociar, aproximarse a las personas, comprenderlas y aprender de ellas es clave. La depresión parece jugar un papel importante a la hora de mantener una postura.
Por ejemplo, el caso de la música sin talento que dejó de estar deprimida al dejar de lado su empeño por tocar un instrumento. Cierto tipo de depresión parece un indicativo de saber cuándo parar alguna actividad.
El conflicto ético de hacer máquinas depresivas
En abril de 2018 el MIT planteaba un conflicto ético: ¿se debe experimentar con tejido cerebral reanimado post mortem? El conflicto venía de las señales cerebrales detectadas, que parecían indicar cierta consciencia. La traslación de este problema a las máquinas nos haría preguntarnos: ¿se debe experimentar con máquinas conscientes?
Y, en relación a la depresión, ¿es ético programar máquinas que tengan la capacidad de deprimirse? Todo esto son preguntas hipotéticas, claro. Todavía no entendemos demasiado bien el cerebro, mucho menos la mecánica o los motivos tras la depresión.
Tampoco estamos cerca de un modelo de inteligencia artificial comparable a la psique humana (superinteligencia). Sin embargo, merece la pena plantearse todo esto, para cuando estemos cerca. Quizá llegue el momento en que no tengamos tiempo para hacernos todas estas preguntas.
En Nobbot | Los próximos 40 años marcarán nuestra relación con la inteligencia artificial
Imágenes | iStock/eugenesergeev, iStock/OcusFocus, iStock/layritten