Anteayer jueves estuve en un MeetUp organizado por el grupo PyData GRX que se dedica a la divulgación de las herramientas de análisis de datos. Como ves, no es un tema que vaya a interesar a todo el mundo pero a quienes nos gusta la cosa tecnológica nos interesa escuchar a gente que está trabajando en campos, aunque no sean los mismos que los míos, en los que se están haciendo cosas nuevas, sobre todo desde la irrupción de la inteligencia artificial y del machine learning en la gestión y el procesamiento de los datos.
El meetup se celebró en las oficinas de ELCA, una empresa suiza que ha trasladado a una buena parte de sus programadores hasta Granada atraídos, según ellos, por el talento que se agrupa alrededor de la Escuela de Informática de la Universidad de Granada y, según yo, por los bajos salarios que pueden pagar a los programadores en Granada en comparación con lo que cobraría alguien haciendo un trabajo equivalente en Berna, Londres o Frankfurt. Seguramente será una mezcla de los dos motivos lo que los tiene por aquí. El hecho es que se les agradece el interés que ponen en contactar con la comunidad tecnológica local y que, además de ceder el sitio y la pantalla y todo eso, se pagaran unas fantas y unas patatillas fritas, que reconfortan después de un ratico de charla.
Las charlas en sí estuvieron bastante interesantes y uno se viene con la sensación de que ha valido la pena dedicarle una tarde a un meetup como este porque yo he visto cosas que vosotros no creeríais y he conocido a gente que vive alrededor del procesamiento de datos y que de otra manera jamás se hubieran cruzado en mi camino.
La primera charla la dio Ernesto Martínez del Pino, que para mí es un jovenzuelo aunque tiene una experiencia profesional impresionante y anda metido ahora mismo en cuatro proyectos a la vez y demostró que sabe de lo que habla. Nos explicó cómo organiza la recopilación y el almacenamiento de datos en los proyectos en los que trabaja sobre todo enfocándolos a aplicar sobre ellos procesos de inteligencia artificial y de machine learning, a lo que él llama una feature store, que viene a ser algo así como una API para estandarizar el acceso a los datos por parte de todos los sujetos que participan en los procesos y que son muchos y que, por supuesto, tienen todos nombres en inglés: el data engineer, el data scientist, el software engineer, etc. Lo interesante de su exposición es que nos mostró realmente cómo se está trabajando con esa operativa en empresas reales y nos enseñó listas de aplicaciones, muchas de ellas open source, que realmente se utilizan como herramientas en las compañías para las que trabaja. Muy interesante.
La segunda charla la dio Rocío Romero Zaliz, profesora en la Universidad de Granada, que tiene varios cargos en cosas científicas e instituciones públicas diversas, a la que le encantan las tareas de divulgación científica y se le nota. Rocío hizo una exhibición de comunicación científica al presentarnos algo que en principio debería ser profundamente aburrido, como es una comparativa entre las herramientas de visualización de datos Matplotlib y Ggplot2 como un una lucha en un ring entre dos pesos pesados del boxeo. Hasta a mí, que no tenía ni la más remota idea hasta anteayer de que esas herramientas existían ni jamás me ha preocupado la visualización de datos, más allá de los gráficos que me da a la hoja de cálculo con un par de clics, me resultó interesante su charla e incluso después en el networking, con Fanta de naranja y patatas fritas por medio, tuve la oportunidad de hablar con ella y me pareció una persona a la que, además de hablar, le gusta escuchar y que cuando te escucha tiene abierta una segunda instancia de procesamiento donde está analizando todo lo que dices y lo está colocando para ver dónde o cómo aprovechar tus palabras o desechar lo que no sirve; eso que en mi pueblo de toda la vida hemos llamado una criatura espabilá.
Después de la charla hubo un networking donde cada uno se juntó con la persona que más le llamó la atención para hacer preguntas o intercambiar opiniones y nos comimos unos saladitos y cosas de esas que venden en los supermercados y al final, cada mochuelo a su olivo.
No quiero terminar esta reseña sin remarcar la diferencia que hay entre Europa y Estados Unidos cuando se habla de desarrollo científico y de software open source en particular. La organización del evento corresponde a PyData, que es la sección española de PyData Internacional, que a su vez es la organización de divulgación científica de una ONG estadounidense que se llama Numfocus, que se dedica a promover el desarrollo de herramientas open source para el procesamiento de datos. Como ONG que es, vive de las donaciones (¡ojo, no subvenciones públicas!) que recibe y se tienen que currar a lo grande no sólo las aplicaciones que hacen para hacerlas llegar al mayor número posible de usuarios y que su trabajo esté justificado, sino para convencer a los posibles donantes de que su trabajo es algo que vale la pena mantener. Imagínate el trabajo que tienen que hacer para ir a una empresa y decirles que les den a ellos dinero para hacer una herramienta que van a distribuir gratuitamente en el mercado. Tienen que ser muy buenos para conseguir esos apoyos.
En España y en Europa en general, todo eso corre a cargo de entidades financiadas con dinero público que pagamos entre todos, nos interese o no lo que hacen, sea productivo o improductivo, sea mejor o peor; en Granada en particular tenemos la Oficina de Software Libre de la Universidad de Granada que sí hace un trabajo considerable y poco más. Aquí las empresas dicen que ya les exprimen bastante con impuestos, con los que se paga, por ejemplo, la OSL, como para encima tener que financiar otras iniciativas privadas. Sólo hay algunos pequeños grupos de voluntarios haciendo algunas tareas pero nada que se le acerque ni de lejos al nivel que tienen este tipo de organizaciones en Estados Unidos. Ellos están a otro nivel.