Buscamos a un profesional apasionado por la tecnología para integrarse en nuestro equipo central de datos. Se trata de un proyecto híbrido en Madrid, donde podrás trabajar con tecnologías punteras y participar en proyectos de gran impacto.
Diseñar e implementar pipelines de datos escalables y seguros (Spark + Scala), automatizar flujos complejos con Apache Airflow y colaborar con equipos multifuncionales para entender necesidades de negocio y datos.
Experiencia consolidada como Data Engineer (idealmente +4 años), conocimientos sólidos en Apache Spark (Scala), Airflow, Kafka, SQL / NoSQL, familiaridad con entornos Cloud (COS / S3), arquitectura distribuida y procesamiento por lotes y en streaming.
Participación en proyectos innovadores con gran visibilidad, planes de desarrollo profesional: formación continua y evolución técnica, equipo técnico sólido y cultura de mejora continua, entorno de trabajo colaborativo e internacional.
Si buscas un nuevo reto donde tu experiencia cuente desde el primer día, estamos deseando conocerte.