Buscamos un/a Data Engineer con 4+ experiencia en el diseño y operación de pipelines de datos en entornos distribuidos. La persona se encargará de construir y optimizar procesos ETL/ELT, trabajar con grandes volúmenes de información y desarrollar soluciones de análisis y reporting que soporten las necesidades de negocio.
Diseñar, implementar y optimizar pipelines ETL/ELT en entornos distribuidos utilizando Apache Spark y/o Databricks.
Procesar grandes volúmenes de datos, optimizando particionado, tuning de jobs y gestión de datasets a escala.
Trabajar con bases de datos relacionales como PostgreSQL y Oracle.
Automatizar tareas y transformaciones de datos usando Python y librerías de data engineering (pandas, PySpark).
Crear dashboards y reportes para visualización en Power BI.
Gestionar control de versiones con GitHub: ramas, pull requests, colaboración y CI/CD básico.