Funciones y responsabilidades:
• Diseñar y construir un Data Lake.
• Desarrollar y mantener pipelines ETL usando Apache Airflow.
• Modelar y optimizar estructuras de datos en bases de datos relacionales (PostgreSQL) y no relacionales (Clickhouse).
• Crear dashboards interactivos en Power BI o Qlik.
• Documentar procesos y asegurar buenas prácticas de gobernanza de datos.
Conocimientos, habilidades y experiencia:
• Experiencia en desarrollo de pipelines ETL (Airflow).
• Conocimiento en diseño de arquitecturas de datos (Data Lakes, Data Warehouses).
• Dominio de SQL y bases de datos (PostgreSQL, Clickhouse).
• Experiencia en herramientas de visualización como Power BI o Qlik.
• Conocimientos de Python para scripting de procesos.
• Experiencia práctica en Kubernetes (despliegue, configuración, monitoreo).
• Conocimiento de formatos tipo Parquet o Avro.
Condiciones laborales:
• Presencial en Madrid de lunes a miércoles.
• Teletrabajo los jueves y viernes.
• Jornada completa: 40 horas semanales.
* Le salaire de référence se base sur les salaires cibles des leaders du marché dans leurs secteurs correspondants. Il vise à servir de guide pour aider les membres Premium à évaluer les postes vacants et contribuer aux négociations salariales. Le salaire de référence n’est pas fourni directement par l’entreprise et peut pourrait être beaucoup plus élevé ou plus bas.