Skynet - uniendo a negocio e ingeniería de datos

Como Data Product Manager, tuve el emocionante desafío de diseñar y dirigir el lanzamiento de una herramienta que no solo simplifica, sino que transforma radicalmente la manera en que manejamos datos a nivel global, en este caso para una entidad como es el BBVA, a lo largo de todas sus geografías. Skynet.


Este producto es la respuesta a una necesidad crucial en el mundo digital actual: gestionar de manera eficiente y efectiva miles de fuentes de datos que provienen de diversas regiones, tanto en el dinámico mercado latinoamericano como en el español.

En particular, cubre los primeros pasos del ciclo de vida del dato, que serán fundamentales para posteriormente, podernos explotar de distintas maneras: modelos ML/AI, análisis de datos para toma de decisiones de negocio, integraciones con herramientas de clientes y de backoffice para explotación de los datos curados, etc.

Estos primeros pasos del ciclo de vida del dato que buscó cubrir Skynet son: ingesta, gobierno, normalización y control de calidad de los datos.

Esquema general del ciclo de vida del dato y del dato como producto.

Ingesta de Datos:

La "ingesta de datos" es el proceso esencial por el cual nuestra herramienta recopila información de diversas fuentes y la trae al corazón de operaciones. Este proceso se lleva a cabo con una eficiencia asombrosa, garantizando que datos críticos estén disponibles y listos para su uso en tiempo real.


Normalización de Datos y Data Quality:

Cuando hablamos de "normalización de datos", nos referimos a la práctica de organizar y estructurar la información de manera coherente y estandarizada. Es como traducir un libro a varios idiomas para que todos puedan entenderlo. Esta normalización no solo facilita la comprensión, sino que también mejora significativamente la calidad de los datos. 

Además, asegura que, independientemente de la fuente, los datos sean cohesivos y fáciles de interpretar.

Gobierno del dato:

El "gobierno de datos" es la guía detrás de este proceso. Es la aplicación de políticas y procedimientos que aseguran que la información sea manejada de manera ética, segura y eficiente. Es como tener guardianes virtuales que garantizan la integridad y confiabilidad de cada dato que fluye a través de nuestro sistema.


Cada iteración de este producto fue meticulosamente diseñada para ofrecer una experiencia única, adaptándose a las necesidades específicas de los equipos en diferentes regiones. Nuestro objetivo era proporcionar un ecosistema donde los equipos técnicos puedan automatizar procesos complejos, mientras que las interfaces intuitivas permiten que aquellos menos familiarizados con lo técnico aprovechen al máximo la herramienta. Los equipos de negocio locales podían definir sus datos fuente y destino sin necesidad de estudiar o aprender conceptos técnicos complejos.

Este producto es más que una herramienta; es una evolución en la manera en que interactuamos con los datos, uniendo a ingenieros de datos con equipos de negocio que, hasta ese momento, no siempre hablaban el mismo "idioma".

Y antes de cerrar, no puedo irme sin dar las gracias a Mario Molina y Carlos García, los desarrolladores que tomaron las riendas de este gran producto, que entendieron el problema desde el principio, poniendo siempre a los usuarios, nuestros compañeros, lo primero.

Recent Projects

¿Quieres saber más?
EscrÍbeme