¡Activa las notificaciones laborales por email!

Senior Data Engineer

Sectorea

Barcelona

Presencial

EUR 40.000 - 80.000

Jornada completa

Hace 30+ días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa innovadora busca un Senior Data Engineer con experiencia en Python y PySpark para unirse a su equipo. Este rol implica diseñar y desarrollar pipelines ETL/ELT, optimizar consultas SQL y gestionar flujos de datos en tiempo real con Kafka. La compañía, con más de 20 años en el sector, está construyendo un Data Lakehouse de última generación, ofreciendo un ambiente de trabajo híbrido y horarios flexibles. Si estás listo para enfrentar retos apasionantes y contribuir a proyectos innovadores, esta es tu oportunidad.

Formación

  • 4+ años de experiencia desarrollando con Python.
  • Experiencia en optimización de consultas y esquemas en SQL.

Responsabilidades

  • Diseñar y mantener pipelines ETL/ELT en Python.
  • Colaborar en la evolución de la plataforma Data Lakehouse.

Conocimientos

Python
SQL
PySpark
Apache Kafka
Airflow
Kubernetes
Agile methodologies

Herramientas

Kafka
Airflow
Kubernetes

Descripción del empleo

Buscamos un Senior Data Engineer Python / Pyspark

Compañía con más de 20 años desarrollando soluciones tecnológicas avanzadas que transforman la movilidad urbana y otros sectores estratégicos.

Combinando software y hardware a medida , integrando programación, investigación y experimentación. Expandimos nuestras tecnologías para smart cities y movilidad corporativa.

Actualmente construimos nuestro Data Lakehouse, una arquitectura de última generación que fusiona lo mejor del Data Lake y del Data Warehouse , buscando la flexibilidad, escalabilidad y gobernanza de los datos.

Funciones :

  • Diseñar, desarrollar y mantener pipelines ETL / ELT en Python .
  • Colaborar en la evolución de nuestra plataforma Data Lakehouse .
  • Optimizar consultas y esquemas en SQL .
  • Gestionar e integrar flujos de datos en tiempo real con Kafka .
  • Desarrollar pipelines streaming con PySpark para grandes volúmenes de datos.
  • Asegurar la calidad, integridad y seguridad de los datos.
  • Participar en revisiones de código, mentoría y definición de buenas prácticas.
  • 4 años de experiencia desarrollando con Python.
  • Experiencia en Apache Kafka.
  • Conocimientos avanzados de bases de datos SQL.
  • Experiencia con Airflow u otras herramientas de orquestación.
  • Conocimientos en Kubernetes y contenedores.
  • Experiencia en metodologías ágiles.
  • Modalidad híbrida .
  • Horario flexible de lunes a jueves (8 : 00 - 17 : 30) .
  • Inducción del 25 de junio al 10 de septiembre .
  • Proyectos innovadores y multidisciplinares .
  • Remuneración flexible y competitiva .

Si quieres formar parte de este apasionante reto y crecer en una empresa referente en tecnología, no lo pienses más e inscríbete a la oferta!

Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.