¡Activa las notificaciones laborales por email!

Ingeniero / a de Datos Senior

TEMA Grupo Consultor

Madrid

A distancia

EUR 40.000 - 60.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una consultora especializada en movilidad busca un/a Ingeniero/a de Datos con 4-5 años de experiencia. El candidato ideal debe tener habilidades en Python, SQL y experiencia en la construcción de pipelines en la nube. Se ofrece teletrabajo y horarios flexibles, además de beneficios como formación continua y seguros médicos privados.

Servicios

Teletrabajo full-remote
Formación continua
Seguro médico privado
23 días laborables de vacaciones
Día libre por tu cumpleaños

Formación

  • 4–5 años de experiencia en diseño y orquestación de pipelines (ETL / ELT).
  • Fondo sólido en Python y SQL, con experiencia en Spark y Airflow.
  • Capacidad para traducir casos de uso del negocio en artefactos de datos.

Responsabilidades

  • Construir y mantener pipelines de ingesta / transformación en la nube.
  • Modelado de Data Vault / Star / Snowflake schema.
  • Monitorear y alertar sobre la calidad y linaje de los datos.

Conocimientos

Python
SQL
Spark
Airflow
Data Engineering

Educación

Grado / Máster en disciplina STEM

Herramientas

AWS
Azure
GCP
Kafka
Data Vault
Tableau
Descripción del empleo

TEMA Grupo Consultor es la empresa matriz de un holding de compañías especializadas en consultoría dentro del ámbito del transporte y la movilidad . Fundado en 1982 , el Grupo se ha consolidado como referente nacional en el desarrollo de proyectos y estudios de transporte de pasajeros y mercancías , prestando servicio tanto a la administración pública como a entidades privadas .

TicMoveo (y su socia, Palma Tools ) son empresas especializadas en consultoría e ingeniería en medios de pago interoperables en el sector del transporte público, así como en el apoyo en la implantación de soluciones ITS (Sistemas Inteligentes de Transporte) y el desarrollo de soluciones de análisis y explotación de datos.

Perfil:

Buscamos un perfil con Grado / Máster en disciplina STEM (Informática, Telecomunicaciones, Industriales o similar).

Valorable:
  • posgrado / certificaciones en Data Engineering / Cloud (AWS / Azure / GCP), Spark , dbt , Kafka ; certificaciones de gestión (PMP / ITIL / Agile) por el carácter transversal de los proyectos ITS.
Experiencia en:
  • Ingeniero / a de Datos con 4–5 años de experiencia real en diseño y orquestación de pipelines (ETL / ELT) y modelado analítico (Data Warehouse / Lakehouse).
  • Background sólido en Python y SQL, con dominio de Spark (o similar) y Airflow / Prefect para scheduling.
  • Experiencia integrando fuentes heterogéneas : validaciones de billetaje (EMV / QR / NFC), recargas, transaccional de backoffice, AVL / SAE, IoT, logs, GIS.
  • Mentalidad de producto / servicio : calidad del dato, observabilidad, testing (unit / integration / data tests), versionado y CI / CD.
  • Capacidad para traducir casos de uso del negocio (fraude, revenue assurance, demanda, KPIs operativos) en artefactos de datos mantenibles.
  • Se valorará positivamente la experiencia previa en los sectores de tecnología, movilidad o transporte .
Funciones:
  • Construir y mantener pipelines de ingesta / transformación (batch y streaming) en cloud (AWS / Azure / GCP) con infra como código .
  • Modelado (Data Vault / Star / Snowflake schema) y data marts para analítica de movilidad, ticketing y operaciones (KPIs de puntualidad, ocupación, ventas, fraudes, liquidaciones).
  • Gobernanza y calidad : linaje, catalogación, SLAs / SLOs de datos, monitorización y alertas.
Exposición de datos:
  • APIs, views materializadas y datasets para BI (Power BI / Looker / Tableau) y ciencia de datos.
  • Optimización de costes y performance en lagos / almacenes (particionado, z-ordering, compaction).
  • Seguridad y cumplimiento (gestión de claves / SAM, cifrado, PII, RBAC / ABAC) colaborando con equipos ITS y backoffice.
  • Apoyo funcional a proyectos ITS : cuadros de mando operativos, reporting regulatorio y simulaciones.
Requisitos:
  • 4–5 años construyendo pipelines (Python, SQL) con Spark (o PySpark) y Airflow / Prefect.
  • Experiencia en cloud (AWS / Azure / GCP) y almacenamiento escalable (S3 / ADLS / GCS, Lakehouse, warehouses tipo BigQuery / Snowflake / Redshift / Synapse).
  • Data modeling (dimensional / Data Vault) y dbt u otra capa de transformación declarativa.
  • Kafka (u otro bus) y / o streaming (Spark Structured Streaming / Flink) en producción.
  • Testing de datos, observabilidad (Great Expectations / Monte Carlo / OpenLineage / Amundsen / DataHub), versionado (Git) y CI / CD (GitHub Actions / GitLab CI / Azure DevOps).
  • Buenas prácticas de seguridad y gobernanza (catálogo, linaje, enmascarado / column-level security, RBAC).
Ofrecemos:

Otros beneficios no económicos derivados de estar distinguidos EFR ( Empresa Familiarmente Responsable ) :

  • Teletrabajo en modalidad full-remote, salvo reuniones de equipo y despachos presenciales con cliente.
Horario flexible:
  • horquilla de entrada entre las 07 : 00 y las 09 : 30 y salida entre las 16 : 00 y las 18 : 00 horas-
  • Verano con más tiempo libre : jornada intensiva de 7 horas durante julio, agosto y la primera semana de septiembre. El resto del año : horario de lunes a jueves, 8,5 h y los viernes, solo 6 h.
Jornadas especiales:
  • tardes libres el día previo a Semana Santa y Reyes y días 24 y 31 de diciembre festivos
  • Seguro médico privado : tras el periodo de prueba, para tu tranquilidad y bienestar.
  • Formación continua : impulsamos tu desarrollo con acceso a programas y cursos.
  • 23 días laborables de vacaciones : para que desconectes y recargues pilas.
  • Día libre por tu cumpleaños : porque celebrar contigo también nos importa.
  • Permisos de lactancia y paternidad flexibles
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.