En PiperLab son expertos en datos. Desde hace cinco años se dedican a sacarles valor, enriquecerlos y ofrecer soluciones objetivas a retos determinados, parte de ellos relacionados con la sostenibilidad del entorno en el que vivimos.
Una de las iniciativas que han sacado adelante es este bot en Twitter que informa sobre los niveles de contaminación en Madrid antes incluso que el Ayuntamiento. Ahora están desarrollando el proyecto Clean Air App, un modelo de predicción de la contaminación del aire en cinco grandes ciudades españolas: Barcelona, Bilbao, Sevilla, Zaragoza y Valencia.
Para conocer un poco más sobre cómo se trabaja en una empresa de big data, conversamos con una de las socias de PiperLab, Esther Morales. La dificultad para encontrar profesionales con el perfil que requiere su empresa, cómo gestionan los datos o los beneficios que reporta al usuario su cesión son algunos de los temas que tratamos durante esta entrevista.
– PiperLab nació en 2015, cuando aún el uso del dato no estaba en la agenda de la mayoría de las empresas. Se puede decir que fuisteis casi pioneros.
Somos cuatro socios, de los cuales tres ya estábamos trabajando en el sector del dato y nos conocíamos de antes. Detectamos que había una demanda muy incipiente en las empresas españolas, que necesitaban empezar a hacer uso de sus datos para sacarles valor más allá de lo estaban haciendo hasta ese momento. Con la tecnología disponible, ya se podían combinar datos estructurados en una tabla con otros no estructurados. Empezamos siendo tres personas y cinco años después ya somos 32 los que trabajamos en PiperLab.
– ¿Cuál es el perfil de los trabajadores de una empresa de big data?
El más numeroso es lo que se llama data scientist [científico de datos]. Son perfiles técnicos, sobre todo de las carreras de Informática y Matemáticas. La base matemática es fundamental porque nosotros lo que hacemos es utilizar algoritmos para crear modelos que nos permitan hacer trabajos de predicción, como una previsión de ventas, un cross selling o una segmentación de clientes. Para eso el perfil tiene que tener una base de matemáticas fuerte para poder ‘modelizar’ esos algoritmos y porque, al final, lo que creamos es un código matemático con el que dar respuesta a nuestros clientes.
«La base matemática es fundamental porque nosotros lo que hacemos es utilizar algoritmos para crear modelos que nos permitan hacer trabajos de predicción».
– ¿Es fácil encontrar este tipo de perfiles?
Es un bien escaso. Se dice que son los ‘unicornios’ del mercado laboral, porque estas carreras conjuntas de Informática y Matemáticas o Matemáticas y Física son muy recientes. Toda la gente que está en el mercado está empleada. Antes para entrar en la carrera de Matemáticas pedían un cinco y los que la cursaban acababan en docencia, en banca, en seguros… Y ahora sus posibilidades son inmensas y pueden trabajar en casi cualquier empresa. De las 32 personas que somos, unas 22 tienen este perfil. El resto es personal administrativo y de marketing y, sobre todo, comercial, porque no solo es importante hacer un buen algoritmo y un buen modelo, también transmitírselo al cliente.
– Se puede decir que el dato es un material delicado con el que tratar, ¿cómo lo gestionáis?
Tenemos un delegado de datos, tal y como marca el RGPD (Reglamento General de Protección de Datos), que es un abogado experto en la materia. En cuanto al uso y tratamiento de los datos, además de firmar un acuerdo de confidencialidad con el cliente, hay que tener en cuenta que la mayoría de los datos con los que trabajamos no son personales, sino que los gestionan las empresas. En el caso de que haya datos personales, lo que hacemos es anonimizarlos. No tienen nombre ni apellido. Y una vez los usamos, los destruimos. Hay que tener en cuenta que es así como se trabaja con los datos. Las empresas de telecomunicaciones, por ejemplo, cuando usan datos de telefonía, los anonimizan y les ayudan a entender dónde se mueve la gente, porque van siguiendo las repeticiones en las antenas, pero no se mueven en tus datos, salvo que tengan que localizar a una persona porque exista algún tipo de riesgo.
– ¿Crees que el usuario tiene claro el tratamiento que se hace de los datos para su beneficio? ¿Se comunica bien la utilización que se hace de ellos?
Hay que tener respeto a la cesión de datos y, aunque sea muy pesado, leerse la letra pequeña. Pero también hay que pensar que esto es un beneficio mutuo: estamos cediendo los datos porque a cambio nos están dando algo. Estamos usando Google Maps o el navegador Waze y, por supuesto, saben dónde estás y por dónde pasas. Cuando lo conectas al día siguiente, te pregunta “¿vas al trabajo?”, sabiendo perfectamente dónde trabajas. Hay que conocer su beneficio y plantearse si se quiere usar o no, y siempre sabiendo para qué se están cediendo los datos.
«Hay que tener respeto a la cesión de datos y, aunque sea muy pesado, leerse la letra pequeña. Pero también hay que pensar que esto es un beneficio mutuo: estamos cediendo los datos porque a cambio nos están dando algo».
– En vuestros proyectos os centráis mucho en temas de sostenibilidad, ¿cuál ha sido vuestro trabajo más gratificante en este sentido?
Precisamente es uno que pusimos en marcha de forma altruista. Una persona del equipo decidió coger los datos abiertos que tenía el Ayuntamiento de Madrid de las estaciones de detección de contaminación dispuestas por la ciudad para medir los datos de polución. Con ellos creó un bot gratuito disponible en Twitter. Lo que hace es avisar, antes del propio consorcio, de cuándo va a haber restricciones según los niveles de contaminación registrados. Esta iniciativa nos dio bastante visibilidad y a partir de ahí han surgido otra serie de proyectos basados en estos datos donde se intenta mejorar, por ejemplo, la entrega de la última milla. Es decir, el tramo final de la entrega que realizan las empresas paqueteras. Son proyectos orientados a la sostenibilidad a partir de datos abiertos que nos dan la posibilidad de investigar. Se trata, de alguna forma, de devolver a la sociedad esos datos que nos cede.
Otro proyecto también muy sostenible e ilusionante es uno con el que tratamos de ayudar a las empresas a hacer una predicción de la obsolescencia de sus productos. El propósito es evitar esa economía lineal de fabricar, usar y tirar, y sustituirla por una economía circular en la que se pueda reciclar y dar una segunda vida a los objetos. Lo que hacemos es una predicción de obsolescencia para que, antes de que el producto no tenga valor y se lleve a chatarra, se pueda seguir usando en otros mercados secundarios
– Desde 2015, cuando nació PiperLab, y hasta ahora, ¿habéis visto un cambio por parte de las empresas en cuanto al uso que hacen de los datos? ¿Crees que son conscientes del valor que tiene esa información?
Cuando montamos PiperLab las empresas todavía estaban bastante perdidas y ahora sí notamos que son ellas las que vienen a nosotros. Por un lado, porque nos conocen por proyectos en los que participamos, pero también porque buscan a quien pueda sacar valor a sus datos. El problema es que el dato no está como debiera estar y hay que llevar a cabo un proceso de depuración antes de poder sacarle valor.
– ¿Cuál es el uso mayoritario que las empresas hacen de los datos?
Tratan de conocer mejor a su cliente para hacer una oferta más personalizada, segmentarlo mejor…Los datos externos ayudan a entender mejor a ese cliente, hacer una previsión para adelantarse a las demandas de productos o evitar roturas de stock. También se usa para mejorar la eficiencia en las fábricas. Con la digitalización que está experimentando la industria, se está haciendo uso de los datos para que esa combinación máquina-hombre sea más eficiente. Esto repercute, por ejemplo en un menor consumo de energía.
«Con la digitalización que está experimentando la industria se está empezando a hacer uso de los datos para que esa combinación máquina-hombre sea más eficiente y repercuta, por ejemplo, en un menor consumo de energía»
– Los datos serán, entonces, la nueva materia prima para cualquier ámbito.
Así es. Se habla de ellos ya como el nuevo petróleo. Ayudan a ser mucho más sostenibles y serán esenciales en la eficiencia de las smart cities, en las que gracias al uso de sensores se podrá saber si es necesario, por ejemplo, activar el riego o poner en marcha el alumbrado. En este sentido, hemos participado en un proyecto para optimizar rutas en la recogida de basuras, que los contenedores no se desborden y tampoco se pase cuando estén vacíos.
– Formáis parte de un clúster de big data impulsado por el Ayuntamiento de Madrid. ¿Cuáles son sus objetivos?
Es una iniciativa muy incipiente. Antes del verano reunieron a varias empresas que se dedican a esto y se recogieron ideas para ver qué necesidades hay. El objetivo del clúster de big data es que Madrid se convierta en una ciudad donde la gente quiera venir a trabajar. Donde se cree empresa en torno al dato. ¿Por qué no un Silicon Valley en Madrid? Después de esta puesta en común de ideas, se han empezado a sentar las bases y están entrando más empresas. En cuanto a los tipos de proyectos, la intención es hacer una combinación de datos con la cesión de aquellas empresas que puedan hacerlo. Lo que da riqueza a esta iniciativa es la posibilidad de crear una especie de marketplace donde poner en marcha proyectos que combinen todos ellos, que sea un clúster colaborativo.
– ¿Cuántas empresas forman parte de esta iniciativa?
Empezamos alrededor de 15, todas ellas con presencia en Madrid y algunas con carácter internacional. Se intentó incluir tanto empresas que trabajamos el dato, como es el caso de PiperLab, como a compañías que producen muchos datos, como son las telcos. A partir de ahí se están uniendo muchas más. Ahora lo que se ha hecho es crear grupos de trabajo con aquellos que, por ejemplo, se quieran centrar en temas de recursos humanos, industria…
En Nobbot | ¿Cuánto contamina la nube donde almacenamos nuestros datos?
Imágenes | PiperLab