Los chips neuromórficos son los componentes básicos de un nuevo modelo de computación. Su objetivo es superar la arquitectura de hardware de los equipos actuales, para llegar a procesar grandes cantidades de datos en tiempo real y en paralelo. Con altísimas velocidades, una mejor gestión de eventos inesperados, sin un orden predeterminado, de forma asíncrona y muy bajo consumo energético. Para una nueva generación de dispositivos IoT capaces de hablar, ver, interactuar, moverse y decidir cada vez mejor.
Cómo funcionan los chips tradicionales
Chip, en informática, es sinónimo de microprocesador. Una pequeña placa, generalmente de silicio, sobre la que se implementan uno o más circuitos electrónicos integrados. Su trabajo es procesar los datos entrantes y generar respuestas salientes.
Un chip contiene la CPU. Esta es la unidad central de procesamiento, que se comunica con la memoria RAM, es decir, la memoria de sistema y ejecución. Y la memoria ROM, la memoria de archivo. Está conectado a ambas por vías de cobre, llamadas «bus«, que transportan los impulsos eléctricos y conectan la CPU a los elementos periféricos.
El sistema de bus requiere tiempo y energía. En particular, el conjunto de limitaciones generadas por la lectura y el movimiento de datos de un lado a otro para su almacenamiento se denomina «cuello de botella de Von Neumann». En honor a uno de los matemáticos más importantes de la historia moderna, John von Neumann.
Los diferentes circuitos dentro del microprocesador necesitan comprender cuándo considerar válidas las señales de entrada. Para ello, la informática tradicional funciona según la frecuencia de los clock, la señal que sincroniza las operaciones. Una CPU es tanto más poderosa cuanto mayor es esta frecuencia en un intervalo de tiempo determinado. En cambio, los chips neuromórficos son microprocesadores que imitan el funcionamiento de las neuronas.
¿Qué son los chips neuromórficos?
Nuestro cerebro no trabaja así. Cuenta con alrededor de 86 000 millones de neuronas, células que se especializan en recolectar, procesar y transferir impulsos nerviosos. Están formadas por dendritas, que reciben las señales entrantes, y por el axón, que las vehicula hacia fuera. Y vinculadas por sinapsis, a través de procesos electroquímicos. La ‘distancia’ entre una neurona y otra se salva mediante la transformación de señales eléctricas en sustancias químicas. Por cada neurona, se calculan entre 5000 y 100 000 sinapsis.
La simulación de 100 billones de sinapsis con modelos simples, a través del superordenador Sequoia del Laboratorio Nacional Lawrence Livermore de EE. UU., resultó 1500 veces más lenta que la real. Además, incluso si hubiera alcanzado la misma velocidad, habría requerido 12 GW de energía. Mientras que el cerebro humano solo usa 20 vatios. El consumo energético de una bombilla.
Los diferentes tipos de receptores (táctiles, olfativos, auditivos, visuales) transmiten los impulsos nerviosos a la corteza cerebral. Y los chips neuromórficos que imitan el funcionamiento de las neuronas están inspirados en las redes neuronales naturales de la corteza cerebral.
Así, los chips neuromórficos de autoaprendizaje funcionan gracias a redes neuronales artificiales, sistemas de computación por conexiones. Redes plásticas, que cambian los pesos de las conexiones en función de la interacción con el exterior. Igual que las sinapsis naturales. Esos pesos son gradientes de señal que superan la lógica binaria de la computación tradicional. De hecho, las redes neuronales de aprendizaje artificial se componen de niveles de abstracción progresiva. Cada nivel procesa los datos del anterior y los suministra al siguiente.
Avances tecnológicos
En 2014, un equipo de investigadores de IBM presentó TrueNorth. Un chip neuromórfico que no funciona por clock sino por picos de esfuerzo. Sus componentes se activan solo cuando la carga eléctrica alcanza un valor específico, sin escaneos temporales rígidos. TrueNorth se compone de 5400 millones de transistores dispuestos en 4096 núcleos neurosinápticos interconectados. Se pueden programar individualmente un millón de neuronas y 256 millones de sinapsis artificiales. En una red bidimensional con un consumo similar al de un ordenador personal.
En enero de 2018, un equipo del MIT publicó en ‘Nature Materials’ los resultados de la construcción de un microchip con sinapsis artificiales, hecho de silicio y germanio. Utilizado para reconocer diferentes tipos de escritura a mano, demostró una precisión del 95%. El mismo año, Intel presentó Loihi, un chip neuromórfico con 130 000 neuronas y 130 millones de sinapsis artificiales. En Loihi fue implementado el algoritmo neuronal para el aprendizaje automático rápido y la identificación de olores incluso en contextos difíciles.
El experimento fue publicado por Intel en ‘Nature Machine Intelligence’ en marzo de 2020. El algoritmo se basa en la dinámica del bulbo olfativo de los mamíferos. Aprende rápidamente la huella química de cada olor, los identifica y recuerda incluso en condiciones de interferencia. En 2021, un equipo de investigadores de la Universidad de Tecnología en Swinburne (Australia) ha publicado en ‘Nature’ los resultados de ensayos sobre nuevos chips neuromórficos. Se trata de un modelo fotónico, no basado en silicio, capaz de realizar más de 10 billones de operaciones por segundo.
Campos de aplicación
Los chips neuromórficos son aplicables siempre que se necesite un microprocesador. Potencialmente, podrían procesar datos sensoriales dimensionales y muy ruidosos en tiempo real, con un consumo muy reducido en comparación con los chips tradicionales. Podrían resolver problemas relacionados con la visión de alto nivel. Es decir, la empleada para la reconstrucción y análisis del contexto de la imagen. Así como en todos los problemas relacionados con la fusión multisensorial en dispositivos IoT.
La computación neuromórfica tiene el potencial de una revolución de impacto transversal. Desde los ordenadores sinápticos hasta dispositivos portátiles. Nuevas generaciones de sensores de movimiento ópticos, auditivos, olfativos, táctiles, insertados en redes avanzadas de aprendizaje profundo podrían aplicarse a todos los entornos de la experiencia humana. Empezando por prótesis para quienes padecen algún tipo de déficit sensorial.
Actualmente, la empresa aeroespacial Airbus está probando el microprocesador Loihi con la Universidad de Cardiff (Gales). El objetivo es mejorar su tecnología de detección de malware. General Electric también lo está estudiando para optimizar sus procesos industriales energéticamente eficientes. Hitachi está experimentando con los chips neuromórficos para el reconocimiento de datos y sensores en HD. Pero es solo el comienzo de un camino que conducirá al próximo ‘salto cuántico’ en la historia de la tecnología.
En Nobbot | La neurociencia sigue conociendo mejor el cerebro que Elon Musk
Imágenes | Compare Fibre/Unsplash, Milad B. Fakurian/Unsplashh</a