¡Activa las notificaciones laborales por email!

Data Engineer (Spark - AWS)

Keepler Data Tech

Madrid

Presencial

EUR 32.000 - 46.000

Jornada completa

Hace 2 días
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una empresa de tecnología de datos busca un Data Engineer con al menos 3 años de experiencia en Spark y AWS. Las responsabilidades incluyen construir plataformas de datos en la nube, orquestar pipelines y gestionar datos. Ofrecen un ambiente colaborativo, flexibilidad horaria y beneficios como formación y seguros. El rango salarial es de 32.000 a 46.000 euros brutos anuales más bono.

Servicios

Presupuesto anual para formación y certificaciones
Teletrabajo con asistencia flexible
Ayuda económica mensual para consumibles
Impulso de una cultura colaborativa
Seguro médico y dental

Formación

  • Mínimo 3 años de experiencia en ingeniería de datos.
  • Nivel de inglés B2-C1.
  • Experiencia en AWS y manejo de Git y Gitflow.

Responsabilidades

  • Construcción de plataformas de datos en entornos cloud con AWS.
  • Ingesta y procesamiento de datos en Batch y Streaming.
  • Orquestación de pipelines y gestión de datos.

Conocimientos

Spark
PySpark
Spark SQL
Python
SQL
Apache Airflow
Ingesta de datos
Procesamiento Batch
Procesamiento Streaming
Git
Gitflow
AWS (S3, EMR serverless, Glue, Athena)

Descripción del empleo

En Keepler, queremos ampliar nuestro equipo con personas entusiastas que deseen desarrollar software basado en datos, con dos objetivos principales: ayudar en la transformación digital de nuestros clientes y disfrutar del proceso de crear valor mediante la tecnología.

Si deseas formar parte de un equipo que te ofrecerá retos tecnológicos, que exigirá mejora y aprendizaje continuo, y si no temes reconocer errores y ser proactivo, ¡Keepler podría ser el lugar ideal para ti! ¿Te interesa? Revisa nuestra vacante de

Data Engineer (Spark - AWS).

Responsabilidades: Construcción de plataformas de datos en entornos cloud con AWS, incluyendo ingesta y procesamiento de datos en Batch y Streaming, orquestación de pipelines, y gestión de datos con herramientas como Spark, PySpark, Spark SQL, Python, SQL, y Apache Airflow.

Requisitos: Mínimo 3 años de experiencia en ingeniería de datos, conocimientos en Spark, PySpark, Spark SQL, Python, ingesta de datos, procesamiento en Batch y Streaming, orquestación de pipelines, SQL, Apache Airflow, manejo de Git y Gitflow, experiencia en AWS (S3, EMR serverless, Glue, Athena), y nivel de inglés B2-C1.

Deseables: Experiencia y entusiasmo por metodologías ágiles como Scrum y Kanban.

Qué ofrecemos: Un ambiente de trabajo colaborativo con profesionales expertos, presupuesto anual para formación y certificaciones, teletrabajo con asistencia flexible, oficina en el centro de Madrid, ayuda económica mensual para consumibles, horario flexible, jornada intensiva los viernes y en julio y agosto, ayuda alimentaria, retribución flexible, formación en inglés, seguro médico y dental, cultura colaborativa, acompañamiento inicial con un buddy, y un entorno solidario y transparente.

¿Te animas a trabajar con nosotros? En Keepler, creemos en el talento apasionado por la tecnología y valoramos cualidades como inquietud, deseo de aprender y explorar nuevas tecnologías. Invertimos en el desarrollo continuo de nuestros profesionales y fomentamos una cultura de equipo y generosidad.

Rango Salarial: 32.000-46.000 euros brutos anuales + bono, dependiendo de tu experiencia.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.