A los videntes –no las personas que se inventan el futuro a cambio de unas monedas, sino los que podemos ver el presente gracias a nuestros ojos– se nos hace extraño que alguien pueda experimentar el mundo a través de algún otro canal sensorial. Y, sin embargo, los invidentes nos demuestran día tras día que es posible servirse del oído o del sentido del tacto para ver.
La tecnología también está ahí para suplir algunos sentidos y zonas del cuerpo averiadas. Pero llama la atención cómo no solo aquellos que han perdido un sentido pueden hacer uso de las mismas. Es posible que en el futuro transmitimos palabras con tecnologías hoy día sustitutivas para sentidos perdidos.
La tecnología con la que leen los ciegos
En julio de 2017, Pepo Jiménez publicó para Mémesis un artículo titulado «Así ve Twitter un ciego, así oye Youtube un sordo» en el que se retrataba la tecnología con la que personas carentes de un sentido básico lo suplían mediante tecnología. En el mismo artículo aparecía como acompañamiento el siguiente vídeo:
Para la mayoría de los oyentes, el ruido que suena al final del vídeo carece de sentido. Como carece de sentido pasar una mano desentrenada por un libro escrito en braille. Solo percibiremos puntitos, pero seremos incapaces de comprenderlos porque no sabremos a lo que estos hacen referencia.
Lejos de ser un ruido cualquiera, es uno con estructura. Juanjo Montiel, la persona que aparece en el vídeo, ve perfectamente su TL de Twitter gracias a esa nube sonora de palabras, del mismo modo que un vidente hace un repaso diagonal de su TL haciendo uso de sus ojos.
Juanjo nos ha demostrado que no hacen falta ojos para ver Twitter, aunque los textos embebidos (aquellos que aparecen por encima de las imágenes, como imagen) agregan una dificultad extra a la comprensión.
Esto lleva a la pregunta ¿Por qué Internet ha de ser visual?. ¿Por qué no un Internet sonoro o mixto, como veíamos en los teléfonos móviles de Her (2013)? Este tipo de tecnología abre la puerta no solo a que las personas invidentes, como Juanjo, tengan acceso a más contenido, sino que redefine el modo en que este se muestra al público y cuestiona los modos tradicionales.
Neil Harbisson escucha imágenes gracias a la vibración
Harbisson probablemente sea el ciborg más conocido de todos porque fue el primero en ser reconocido como tal en su documento de identidad. Por eso, y porque lleva una antena en la cabeza que le permite percibir los colores en forma de vibraciones dentro de su cráneo, de un modo similar a como se escucha la música en unos cascos de conductividad ósea.
Esta antena, a la que acompaña el chip que convierte los colores en vibración en la base de su cráneo, tiene un tercer elemento. Neil Harbisson tiene su cabeza conectada a Internet y puede recibir imágenes vía mail que vibran (suenan) dentro de su cabeza. Una tecnología que usa para colores, pero que podría funcionar igual de bien para letras, e incluso palabras, siempre que sean codificadas en forma de vibración.
Como Juanjo, Neil partió de la falta de un sentido o parte de un sentido, ya que nació con acromatopsia. No puede percibir el color de forma natural, lo que le llevó a alterar su cuerpo incluyendo tecnología para hacerlo posible.
Lo curioso de este sistema es que no solo las personas ciegas o con acromatopsia podrían usarlo. De hecho, cualquier persona que quiera transmitir información estructurada de Internet a su cabeza podría hacerlo si tuviese la voluntad de hacerlo, así como el dinero que cuesta desarrollar la tecnología o encontrar un cirujano que acceda a operarte.
Transmitir palabras en el futuro
Puede que todo esto sea demasiado futurista para muchos. ¿No vale con un móvil que permita el braille y un Harbisson al que le chiven los colores por un oído? Es posible, pero no hay que ir tan lejos en la tecnología para encontrar modos distintos de transmisión de palabras e información.
iVoox es una de las aplicaciones más conocidas para escuchar podcast. Gracias a ella podemos descargar el audio en nuestro teléfono cuando tengamos WiFi y luego escucharlo por la calle sin consumir datos. Pero llama la atención, al igual que en YouTube, el botón para acelerar la pista.
Uno no considera en ningún momento acelerar el audio de una ponencia hasta que se da cuenta de que agrega más minutos de audio a sus listas de los que podría llegar a escuchar. Pero un día descubre el botón de 1.25 (que aumenta en un 25% la velocidad) y tras varios minutos de escucha se acostumbra uno al nuevo sonido.
Es más, es capaz de comprenderlo sin perderse nada, de modo que al día siguiente prueba con el 1.5 (50% más) y al otro con el 2 (100% más velocidad). Resulta que el cerebro humano necesita un tiempo para adaptarse al cambio, pero tras este la voz al doble de velocidad es perfectamente comprensible.
El extremo, por supuesto, es Juanjo y su lector de Twitter. Pero si él es capaz de escuchar las palabras a tanta velocidad, ¿por qué no íbamos a hacerlo los demás? Y, de ser el caso, ¿por qué no acostumbrarnos a escuchar así la radio, las noticias e incluso los audiolibros o las conferencias?
Es obvio que hay personas que ya lo hacen, que aceleran el audio por encima de sus capacidades humanas normales para escuchar música o consumir contenido. De modo que no es de extrañar que en un futuro elijamos este modo para transmitir palabras. Desde su perspectiva, nosotros hablamos despacio, o balleno.
En Nobbot | Un nuevo software permite “ver” la televisión a sordociegos
Imágenes | iStock/Slphotography, Campus Party Brasil (CC BY-SA 2.0)