Momiji es japonés y lleva menos de un año registrado como editor en Wikipedia. Se dedica a corregir datos, revisar fuentes y reescribir frases. Desde que su trabajo fue autorizado, hace menos de tres meses, ha editado nada menos que 173.945 entradas. Y el número no deja de subir.
Momiji, claro está, no puede ser humano. Es uno de los más de 1.500 bots que revisan Wikipedia 24 horas al día. Suelen ser sencillos programas automáticos que compiten en las más diversas formas por imponer su contenido. Son robots necesarios para el funcionamiento de la gran enciclopedia online, pero que también han sabido imitar los peores hábitos de sus amos humanos.
El origen del conflicto
Aunque, de media, MomijiRoBot edita 749,76 entradas al día, no es, ni de lejos, el bot más activo en Wikipedia. Sus números están muy por detrás de toda una leyenda como Lsjbot, un sueco que edita cerca de 10.000 entradas al día.
Es más, cuando Lsjbot saltó a las portadas en el año 2014, fue porque los más puristas le acusaban de tener demasiada influencia sobre el contenido de Wikipedia. No en vano, el 8,5% de todas las entradas habían sido editadas por el software del profesor Sverker Johansson. Y casi el 50%, si solo se analizaba la página sueca de Wikipedia.
Pero todo empezó una década antes de que el debate se volviese viral. Fue en 2002 cuando Derek Ramsey creó rambot. Durante ocho días, este programa generó más de 30.000 entradas sobre ciudades y pueblos de Estados Unidos; y lo hizo de forma automática a partir de los datos oficiales del censo. Su trabajo acabó cuando se descubrió que un fallo en el set de datos utilizado había causado la creación de 2.000 entradas erróneas.
“Los artículos creados entonces utilizaban una plantilla de texto uniforme y todos tenían el mismo estilo. Hoy en día, los bots no solo se usan para generar artículos, también luchan contra el vandalismo o el spam, y desarrollan muchas más tareas de forma automática”, señalaba Thomas Steiner, de Google Alemania, en un paper publicado en 2014.
La lucha estalló en los números
El artículo de Steiner fue de los primeros en observar, desde una perspectiva científica, la rápida conquista de Wikipedia a manos de los bots. Su estudio se centró también en Wikidata, una base de conocimiento de datos estructurados en los que editores (robóticos y humanos) en cualquier lengua pueden encontrar información estadística y fuentes para los artículos.
“Datos y hechos controvertidos, como por ejemplo la situación de las fronteras en zonas de conflicto, aparecen referenciados con múltiples valores y fuentes, con lo que, los artículos, en función de su punto de vista, eligen sus datos preferidos”, señala el artículo.
Steiner también publicó entonces una herramienta que monitorizaba en tiempo real las ediciones en Wikipedia. Una interesante plataforma que sigue activa y que continúa reflejando lo que ya señalaba el estudio: casi la mitad de todas las ediciones las hacen bots; y cerca del 70% si solo se tiene en cuenta Wikidata.
Además, como señala un análisis reciente de MIT Technology Review, menos del 5% de las entradas en inglés (fuente original de la que se traducen buena parte de los artículos en otros idiomas) están hechas por bots. Sin embargo, el 94% de la Wikipedia vietnamita está escrita por robots.
Una guerra sin fin
A pesar de palabras como lucha o conflicto, estas batallas se libran entre los llamados bots benévolos, programas que han sido creados sin intenciones maliciosas con el único objetivo de contribuir a almacenar el conocimiento de la especie humana. Y, aun así, se enzarzan en guerras que se extienden durante años.
Entre 2001 y 2010, un equipo de la Universidad de Oxford y el instituto Alan Turin recopiló todas las ediciones y correcciones realizadas en Wikipedia. Su análisis acaba de ser publicado en PLOS ONE. Su conclusión: los bots, incluso los benévolos, se enfrentan en largas batallas de consecuencias impredecibles.
Sin embargo, la interacción entre bots parece ser también muy distinta en función de la lengua y el contexto cultural en el que se muevan. Incluso tratándose del mismo tipo de software. Por ejemplo, los bots alemanes se corrigieron entre sí una media de 24 veces en los 10 años analizados. Los portugueses, 185.
“Se puede ver que las diferencias en la tecnología usada en los diferentes idiomas y las distintas culturas de las comunidades de editores crean interacciones muy complejas. Esta complejidad es algo fundamental que debería ser considerado en cualquier estudio sobre la automatización y la inteligencia artificial”, explica el profesor Taha Yasseri, del instituto de Internet de Oxford y coautor del estudio.
Y una guerra muy humana
Mientras los humanos somos más impulsivos, los robots se toman más tiempo para sus luchas. Mientras un editor humano tarda menos de 24 horas en reaccionar a una corrección, los bots se toman, de media, un mes. Sin embargo, las consecuencias de los conflictos entre editores de Wikipedia son parecidas.
“Los bots revisan artículos de forma sistemática y tienen restringida la frecuencia con la que pueden hacer una corrección (entre 5 y 10 segundos entre ediciones). Los humanos utilizan herramientas que les permiten centrarse en unos pocos artículos a los que reaccionan de forma inmediata”, señala el estudio del equipo británico, publicado el pasado mes de febrero.
A pesar de las diferencias, “los robots se comportan e interactúan de forma tan impredecible e ineficiente como los humanos”, continúa el paper. El problema parece surgir de la estructura de la propia Wikipedia, en la que los autores individuales crean sus propios bots sin un sistema único que los coordine.
Así, la mayor parte de correcciones robóticas están relacionadas con links y pequeños cambios formales que tienen más que ver con la estructura de los idiomas y las diferencias culturales que con errores reales. De alguna forma inesperada, los humanos han sabido transmitir sus propios errores y problemas de organización al ecosistema robot.
La interacción es inevitable, queramos o no. Tanto, que los robots (no solo de Wikipedia) empiezan a crear ya una especie de extraña sociedad. “Mientras los bots siguen proliferando y volviéndose más sofisticados, los científicos necesitamos prestar más atención a intentar comprender su cultura y su vida social”, concluye el estudio.
Una cultura compleja llena de conflictos y eso que Momiji y compañía son, en teoría, los bots bonachones. La guerra que libran los llamados robots vándalos y su spam es mucho más cruenta. Pero eso ya es material para otro artículo.
En Nobbot | De cómo los bots amenazan con convertirse en las aplicaciones del futuro
Imágenes: iStock, Pixabay
Gracias por el artículo, los asistentes de voz son el futuro, ahora solo hacen algunas funciones como apagar y prender las luces, el ventilador, las persianas, darnos direcciones GPS, buscar información por nosotros en internet, buscar canciones, contar chistes, pero en algunos años harán incluso nuestro trabajo.