Diseño y Desarrollo de Pipelines de Datos: Serás responsable de construir y automatizar los procesos de extracción, transformación y carga (ETL/ELT). Esto implica el desarrollo avanzado en Python y el uso nativo de servicios de GCP como Dataflow (para procesamiento masivo) y Cloud Composer (Airflow) para orquestar los flujos de trabajo./ Gestión del Data Warehouse Corporativo: Te encargarás de la ingesta y optimización de datos dentro de BigQuery. Esto incluye el modelado de datos, la optimización de consultas SQL complejas y la gestión de la arquitectura de almacenamiento en Cloud Storage./ Automatización de Infraestructura (IaC): Liderarás la definición y el despliegue de la infraestructura de datos utilizando Terraform. Tu objetivo es garantizar que todos los componentes (bases de datos, sistemas de mensajería como Pub/Sub, clústeres de Dataproc, etc.) se gestionen como código, de forma versionada y reproducible./ Integración de Sistemas Críticos (SAP): Una función clave será conectar y extraer datos de sistemas empresariales complejos, con un enfoque prioritario en SAP. Deberás desarrollar los conectores y procesos necesarios para mover datos desde SAP hacia Google Cloud de forma robusta./ Exposición y Consumo de Datos vía APIs: Desarrollarás y mantendrás integraciones con APIs externas (REST/SOAP), tanto para consumir datos de fuentes de terceros (ej. Comerzia) como para exponer los datos de la plataforma a otros sistemas, permitiendo una comunicación bidireccional./ Calidad y Colaboración: Aplicarás las mejores prácticas de ingeniería de software al ciclo de vida de los datos, utilizando Git para el control de versiones, revisión de código y colaboración con el resto del equipo.
...
Diseño y Desarrollo de Pipelines de Datos: Serás responsable de construir y automatizar los procesos de extracción, transformación y carga (ETL/ELT). Esto implica el desarrollo avanzado en Python y el uso nativo de servicios de GCP como Dataflow (para procesamiento masivo) y Cloud Composer (Airflow) para orquestar los flujos de trabajo./ Gestión del Data Warehouse Corporativo: Te encargarás de la ingesta y optimización de datos dentro de BigQuery. Esto incluye el modelado de datos, la optimización de consultas SQL complejas y la gestión de la arquitectura de almacenamiento en Cloud Storage./ Automatización de Infraestructura (IaC): Liderarás la definición y el despliegue de la infraestructura de datos utilizando Terraform. Tu objetivo es garantizar que todos los componentes (bases de datos, sistemas de mensajería como Pub/Sub, clústeres de Dataproc, etc.) se gestionen como código, de forma versionada y reproducible./ Integración de Sistemas Críticos (SAP): Una función clave será conectar y extraer datos de sistemas empresariales complejos, con un enfoque prioritario en SAP. Deberás desarrollar los conectores y procesos necesarios para mover datos desde SAP hacia Google Cloud de forma robusta./ Exposición y Consumo de Datos vía APIs: Desarrollarás y mantendrás integraciones con APIs externas (REST/SOAP), tanto para consumir datos de fuentes de terceros (ej. Comerzia) como para exponer los datos de la plataforma a otros sistemas, permitiendo una comunicación bidireccional./ Calidad y Colaboración: Aplicarás las mejores prácticas de ingeniería de software al ciclo de vida de los datos, utilizando Git para el control de versiones, revisión de código y colaboración con el resto del equipo.