Responsabilidades
- Diseñar, desarrollar y mantener pipelines de datos robustos usando herramientas nativas de GCP (Dataflow, Pub/Sub, BigQuery, Cloud Composer).
- Construir y optimizar flujos ETL/ELT para datos estructurados y no estructurados.
- Colaborar con científicos de datos, analistas y stakeholders para entregar datasets confiables.
- Implementar marcos de calidad, observabilidad y linaje de datos con Dataplex, Data Catalog y Looker.
- Garantizar seguridad, privacidad y cumplimiento (GDPR, HIPAA, SOC 2).
- Desarrollar pipelines CI/CD con Terraform, Git y Cloud Build.
- Monitorear rendimiento y optimizar costos y escalabilidad.
- Soportar arquitecturas batch y streaming para analítica y ML.
- Documentar diseños técnicos y flujos de datos.
- Mentorear ingenieros junior y promover mejores prácticas.
🛠️ Requisitos
- Más de 6 años de experiencia en Data Engineering, con mínimo 2 años en GCP.
- Dominio de Python, SQL y frameworks como Apache Beam.
- Experiencia con BigQuery, Pub/Sub, Dataflow, Cloud Storage y Cloud Composer.
- Conocimiento en data lakes, lakehouse y orquestadores como Airflow o dbt.
- Experiencia con DevOps para datos: CI/CD e IaC.
- Nivel de inglés B2 – C1.