¡Activa las notificaciones laborales por email!

Ingeniero de datos

•hidden company name •

Barcelona

Híbrido

EUR 40.000 - 80.000

Jornada completa

Hace 30+ días

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Una empresa innovadora busca un Senior Data Engineer para unirse a su equipo en Barcelona. Este rol implica diseñar y mantener pipelines ETL/ELT utilizando Python y PySpark, optimizando consultas SQL y gestionando flujos de datos en tiempo real con Kafka. Con un enfoque en la construcción de un Data Lakehouse de última generación, esta posición ofrece un entorno de trabajo híbrido y horarios flexibles. Si te apasiona la tecnología y deseas contribuir a proyectos innovadores en movilidad urbana, esta es tu oportunidad.

Servicios

Horario flexible
Proyectos innovadores
Remuneración flexible

Formación

  • 4 años de experiencia desarrollando con Python.
  • Experiencia en diseño e implementación de pipelines ETL.

Responsabilidades

  • Diseñar y mantener pipelines ETL/ELT en Python.
  • Colaborar en la evolución de la plataforma Data Lakehouse.
  • Optimizar consultas y esquemas en SQL.

Conocimientos

Python
ETL/ELT
SQL
Apache Kafka
PySpark
Airflow
Kubernetes
Agile methodologies

Descripción del empleo

Buscamos un Senior Data Engineer Python / Pyspark

Compañía con más de 20 años desarrollando soluciones tecnológicas avanzadas que transforman la movilidad urbana y otros sectores estratégicos.

Combinando software y hardware a medida, integrando programación, investigación y experimentación. Expandiendo sus tecnologías a smart cities y movilidad corporativa.

Actualmente construyendo su Data Lakehouse, una arquitectura de última generación que fusiona lo mejor del Data Lake y del Data Warehouse, buscando la flexibilidad, escalabilidad y gobernanza de los datos.

Funciones :

  • Diseñar, desarrollar y mantener pipelines ETL / ELT en Python.
  • Colaborar en la evolución de su plataforma Data Lakehouse.
  • Optimizar consultas y esquemas en SQL.
  • Gestionar e integrar flujos de datos en tiempo real con Kafka.
  • Desarrollar pipelines streaming con PySpark para grandes volúmenes de datos.
  • Asegurar la calidad, integridad y seguridad de los datos.
  • Participar en revisiones de código, mentoría y definición de buenas prácticas.
  • 4 años de experiencia desarrollando con Python.
  • Experiencia en Apache Kafka.
  • Experiencia en diseño e implementación de pipelines ETL.
  • Conocimientos avanzados de bases de datos SQL.
  • Experiencia con Airflow u otras herramientas de orquestación.
  • Conocimientos en Kubernetes y contenedores.
  • Experiencia en metodologías ágiles.
  • Modalidad híbrida.
  • Horario flexible de lunes a jueves (8 : 00 - 17 : 30).
  • Intensiva del 25 de junio al 10 de septiembre.
  • Proyectos innovadores y multidisciplinares.
  • Remuneración flexible y competitiva.

Si quieres formar parte de este apasionante reto y crecer en una empresa referente en tecnología no lo pienses más e inscríbete a la oferta!

Junior Data Engineer - Teletrabajo híbrido

Crear una alerta de empleo para esta búsqueda

Ingeniero Datos • Barcelona, Cataluña, España

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.