La tecnología es una herramienta maravillosa que, como cualquier otro utensilio, hemos de aprender a utilizar. Ángel Gómez de Ágreda, autor de ‘Mundo Orwell: Manual de supervivencia para un mundo hiperconectado’ (2019), explora en su libro cómo de cerca estamos de las ficciones de los escritores Orwell y Huxley.
Coronel del Ejército del Aire, exprofesor de Estrategia en el Centro de Estudios Superiores de la Defensa, fue también durante tres años el jefe de Cooperación y Relaciones del Mando Conjunto de Ciberdefensa. Analista en la Secretaría General de Política y Defensa, ahora es Jefe del Área de Análisis Geopolítico. Realiza su tesis doctoral sobre la ética de la inteligencia artificial. Parece que estamos en el lugar correcto para preguntar sobre tecnología e impacto en la sociedad.
– En varias ocasiones mencionas la falta de privacidad actual como una batalla perdida del pasado. ¿Ya hemos renunciado a ella?
Hemos renunciado a la privacidad en favor de la comodidad. Curiosamente, porque lo tradicional era contraponer la privacidad o la libertad a la seguridad. y, sin embargo, lo que hemos hecho ha sido vender nuestra privacidad (o regalarla, mejor dicho) a cambio de comodidad.
Buscamos cosas que sean inmediatas, cómodas y gratuitas. Nos ha acostumbrado a ello la aparente gratuidad de los servicios de internet. Ahora mismo no soportamos ni las esperas ni tener que pagar por los servicios. Y mucho menos tener que esforzarnos por conseguir algo.
La libertad se consigue luchando por ella todos los días. No puedes esperar que alguien te la proporcione porque tienes que descubrir por ti mismo la verdad para poder elegir entre las distintas opciones.
«No soportamos ni las esperas ni tener que pagar por los servicios»
– Das consejos como “Cuida tu imagen en internet, siempre hay alguien mirando”. ¿Vivimos ya en el panóptico de Bentham, esa cárcel de vigilancia perpetua?
No para todo el mundo, pero para el vigilante del panóptico, el que está detrás de la pantalla (las redes sociales, las grandes compañías) es mucho más transparente que en el mundo físico. En el mundo físico lo que va por dentro no se ve. Se puede apreciar el lenguaje verbal, lo que no decimos, cómo vamos vestidos…
En el mundo lógico cada movimiento de ratón, cada forma de teclear, la geolocalización que proporcionan nuestros teléfonos (incluso cuando no nos lo está proporcionando a nosotros)… Todos estos datos que no proporcionamos nosotros, pero que los medios que usamos le van dando al sistema, crean una imagen absolutamente transparente de nosotros.
– Con respecto a los ciberataques, cada vez son más frecuentes y contundentes. Mencionas apagones masivos, un giro interesante hacia la ‘localidad’ y los blancos dirigidos.
Los estamos viendo, sí. En Ucrania, cuando atacan una subcentral eléctrica concreta para dejar sin electricidad a una zona de Kiev, o los ataques desde 2007 de denegación de servicio distribuido. Es decir, ataques de saturación de las redes.
Empezamos con el de Estonia, que dejó prácticamente incomunicado al país. “Incomunicado” significa que no tenía acceso a los historiales médicos ni a los transportes o a ningún otro servicio basado en internet. Y casi todos lo están. Desde entonces hemos visto cómo se han ido incrementando estos ataques.
Podemos de alguna manera aislar a una zona concreta o incluso dejar sin servicio a grandes zonas del mundo como ocurrió cuando se atacó DNS Dyn, la empresa que traduce las direcciones de las páginas a los números que entiende la máquina.
Se hizo con aparatos del internet de las cosas: Alexas o frigoríficos inteligentes. Se saturó la capacidad de esta página y se dejó desconectado durante unas horas a una tercera parte del mundo para servicios como Twitter o Facebook.
“Mucho más de lo que tú estás viendo del mundo, el mundo te está viendo a ti”
– ¿Qué puede hacer hoy una persona promedio para evitar convertirse en una víctima de este sistema? ¿Y para evitar ser una pieza del engranaje?
Lo primero es ser consciente de que la pantalla del ordenador es una ventana al mundo. Pero también una ventana del mundo hacia ti. Mucho más de lo que tú estás viendo del mundo, el mundo te está viendo a ti. Una vez que somos conscientes tenemos que adoptar las medidas de precaución correspondientes.
Aquellas cosas que no queremos que se sepan de nosotros, y tenemos que ser muy selectivos en ellas, no tenemos que tenerlas en ningún aparato que pueda conectarse en un momento dado.
También tenemos que buscar diversidad de fuentes, o evitar de alguna manera llevar nuestro teléfono móvil allá donde vamos. Necesitamos buscar momentos de desconexión. Bastante tenemos ya con las cámaras que nos vigilan por la calle como para encima llevar una cámara propia.
Lo que tenemos que hacer es proteger aquello que es más sensible de nosotros, darnos cuenta del valor de nuestros datos. Cuando estamos regalando nuestros datos, estamos alimentando a empresas que valen miles de millones de dólares. Nuestros datos valen mucho dinero.
De alguna manera necesitamos construir un sistema en el que podamos ser dueños de nuestros datos y poder sacarles partido. No es una iniciativa que pueda tomarse de forma individual, pero hay startups que están diseñando mecanismos basados en blockchain que permiten que seamos dueños de nuestros datos y podamos comerciar con ellos.
“La economía a la que vamos: una economía de los datos que ya está completamente en marcha, y una economía de la atención”
– Una vertiente interesante de la economía.
Es la economía a la que vamos: una economía de los datos que ya está completamente en marcha, y una economía de la atención en la que lo que importa es el tiempo que sean capaces de retenerte. Y el relato que te llega, sobre todo en términos políticos.
No importa tanto el qué se dice de un tema sino de qué tema se está hablando. Lo vemos cuando se sacan temas en campaña electoral que están alineados con el programa de uno de los partidos. Y se consigue que durante semanas se hable de este tema por mucho que no sea del interés general de la población. Pero a ese partido lo pone en el ‘mapa’.
– Hablando de mapas, mencionas el ‘mapa de calor de Strava’. ¿Cómo podemos aprender a usar la tecnología cuando ocurre que no entendemos sus implicaciones?
El caso de Strava geolocalizaba a personal militar ubicado en bases secretas y descubría su posición de esas bases para todo el que quisiera acceder a los archivos. Yo hace cuatro o cinco años alertaba ya de la posibilidad de que las pulseras que llevamos muchas veces para hacer deporte, o los mismos teléfonos móviles, nos pudieran estar localizando en sitios donde no queremos ‘estar’.
“Muy pocas veces se nos cuenta de una manera global la realidad del mundo en que estamos viviendo”
Dos teléfonos móviles que duermen en la misma habitación durante seis días. El séptimo día un teléfono duerme en una habitación distinta, o con otro teléfono. Evidentemente está dando muchos más datos que la simple geolocalización del teléfono. Pasa lo mismo con los militares.
El problema es que muy pocas veces se nos cuenta de una manera global la realidad del mundo en que estamos viviendo. Ese es el esfuerzo que he querido hacer con el libro. Contar en qué mundo estamos viviendo y cuáles son los riesgos y las oportunidades que tenemos de mejorarlo a la vez que sacamos provecho a la tecnología minimizando el riesgo para nosotros.
– Con respecto al riesgo, hablas de “subordinar el ritmo de implantación de los nuevos desarrollos a la garantía de [su] seguridad”. ¿Esto no es ‘paralysis by analysis’?
Son cosas distintas. En la paralysis by analysis, hasta que no terminas de entender todas las circunstancias no lo pones en marcha. En este caso, de lo que se trata es de adaptar el ritmo de implantación de nuevas tecnologías, sobre todo el de la inteligencia artificial, a un ritmo que sea asumible para la evolución humana. Es decir, no poner en marcha cosas que no sepamos manejar.
“Se trata de adaptar el ritmo de implantación de nuevas tecnologías […] a un ritmo que sea asumible para la evolución humana”
No ya que no entendamos. Creo que hay dos aspectos en cuanto al desarrollo de la inteligencia artificial, que es el tema de mi tesis: tenemos que entender qué es lo que están haciendo los algoritmos; pero por otro lado tenemos que mantener un control sobre esos algoritmos.
La paralysis by analysis sería la parte de entender qué están haciendo. Luego hay otra parte: garantizarnos que somos capaces de controlar en un momento dado al algoritmo si de alguna manera se nos descontrola.
– Pero,¿cómo podemos extrapolar comportamientos emergentes maliciosos de la tecnología cuando solo se manifiestan una vez extendida?
No podemos. Para muchas cosas tenemos que ir tropezando y por eso mismo tenemos que ser muy prudentes en el ritmo en el que vamos poniendo en marcha estas tecnologías.
“Cuando estamos creando seres con cierta capacidad de autonomía, es posible que nos encontremos en un mundo que no controlamos”
Habrá un punto, sobre todo con el desarrollo de la inteligencia artificial, en el que si alcanzamos una singularidad (un momento en el que la autonomía de las máquinas se vuelve equivalente a la que tiene el ser humano), pueda no haber una marcha atrás. Cuando desarrollamos las bombas atómicas hubo un debate sobre si es ético su uso. Pero esto al final son elementos inertes que manejamos nosotros.
Ahora estamos jugando a ser dioses, creando seres de algún modo inteligentes. No es algo que vaya a ocurrir en los próximos cinco años, pero sí probablemente poco después, y no es un paso que podamos dar y después decidir “nos hemos equivocado y volvamos atrás”. Cuando estamos creando seres con cierta capacidad de autonomía, es posible que nos encontremos en un mundo que no controlamos.
– Hablas de una singularidad como algo probable.
Es algo que ocurrirá antes o después. No es algo inmediato, pero los avances exponenciales van a conseguir máquinas con una capacidad equivalente, en muchos casos superior, a la de las personas. Probablemente para entonces lo que tengamos que hacer será fusionar de alguna manera las capacidades de la inteligencia del carbono con la del silicio.
Un implante que nos ayude a no estar por detrás de la capacidad de las máquinas. De tal manera que sigamos evolucionando más rápidamente de lo que nos permitiría nuestra naturaleza. Eso nos hace depender «de», y nos quita de alguna manera nuestra dignidad humana e individualidad.
“Me parecería un error tremendo darle derechos a las máquinas”
– No pareces dispuesto a entregar derechos a las máquinas, por complejas que estas puedan llegar a ser.
En absoluto, me parecería un error tremendo darle derechos a las máquinas. Más que nada porque los derechos implican o deben implicar responsabilidades. Si otorgamos responsabilidades a las máquinas, muchas veces es para librarnos nosotros de ellas. Creo que sería un error intentar equiparar una herramienta en cuanto a la responsabilidad con nosotros mismos.
No porque dé lugar a comportamientos irresponsables por parte de las máquinas, sino porque daría lugar a comportamientos irresponsables por parte de las personas. Como no tendríamos una responsabilidad directa sobre lo que hace la máquina, tus decisiones dejan de ser trascendentes. No estaríamos elevando el nivel moral de las máquinas, sino degradando el de las personas.
En Nobbot | ¿Por qué siempre mencionamos a Orwell cuando hablamos de vigilancia?
Imágenes | Emilio García Herrera, Wikimedia/Jeremy Bentham, iStock/pixinoo, iStock/sukanya sitthikongsak