Descripción del cargo:
Se requieren Data Engineers (Big Data Dev) para diseñar, desarrollar y mantener pipelines de grandes volúmenes de datos en entornos distribuidos. Será responsable de la extracción, transformación y carga (ETL) de datasets masivos, garantizando la calidad y confiabilidad de la información para habilitar casos de uso en analítica avanzada y machine learning.
Skills requeridos:
- Experiencia mínima de 1 año en ETL con Google Cloud Platform (GCP).
- Conocimiento en frameworks Big Data (Spark, Hadoop, Kafka, etc.).
- Experiencia en modelado y procesamiento de datos a gran escala.
- Manejo de SQL y Python/Scala/Java.
- Experiencia en sistemas distribuidos.
- Ingles C1
Skills deseables:
- Experiencia en analítica avanzada o machine learning.
- Certificaciones en GCP o tecnologías Big Data.