¡Activa las notificaciones laborales por email!

Ingeniero de datos

Tinámica

Badajoz

Presencial

EUR 30.000 - 45.000

Jornada completa

Hace 17 días

Descripción de la vacante

Una consultora de tecnología de datos busca un/a Data Engineer en Badajoz para construir pipelines de datos en Azure. Se requiere dominio avanzado de SQL, experiencia con Azure y Python, y fuertes habilidades en CI/CD. Se ofrecen proyectos reales que impactan decisiones de negocio y un paquete retributivo competitivo.

Servicios

Proyectos reales con impacto
Formación adaptada
Paquete retributivo competitivo
Evaluaciones periódicas y feedback

Formación

  • Dominio avanzado de SQL: tuning de consultas, indexación, procedimientos almacenados.
  • Experiencia con Azure Data Factory y creación de pipelines.
  • Conocimiento de Azure Databricks y Spark (Python/Scala).
  • Habilidades en Python (PySpark, pandas).
  • Familiaridad con CI/CD en Azure DevOps.

Responsabilidades

  • Construcción y orquestación de pipelines de datos en Azure.
  • Colaboración con otros Data Engineers y áreas de negocio.
  • Transformación de datos en conocimiento accionable.

Conocimientos

SQL avanzado
Azure Data Factory
Azure Databricks
Python
CI/CD en Azure DevOps
Principios de arquitectura de datos
Descripción del empleo

Te interesa trabajar con datos de verdad y no solo mover ficheros entre excels?

En Tinámica buscamos un / a Data Engineer con ganas de formar parte de un proyecto que digitaliza procesos reales y complejos dentro del área de Planificación Global de una de las grandes energéticas del país. Si te interesa que lo que hagas tenga impacto, sigue leyendo.

Lo que vas a hacer (de verdad) :

Ayudarás en la construcción y orquestación de pipelines de datos sobre la nube de Azure, garantizando eficiencia, escalabilidad y gobernanza. Colaborarás con otros DE y áreas de negocio para transformar datos en conocimiento accionable.

Qué necesitamos de ti?

  • Dominio avanzado de SQL : tuning de consultas, indexación, procedimientos almacenados.
  • Azure Data Factory : creación de pipelines, mapping data flows, triggers dinámicos, Key Vault.
  • Azure Databricks : Spark (Python / Scala), Delta Lake, optimización de clusters
  • Python : PySpark, pandas, pytest, gestión de paquetes (Poetry / Conda).
  • CI / CD en Azure DevOps : repos Git, pipelines multistage, despliegue de notebooks y artefactos.
  • Principios de arquitectura de datos : diseño de lagos / lakehouses, patrones ELT / ETL, seguridad.

Qué te ofrecemos?

  • Proyectos reales y con impacto : Aquí lo que haces se usa. Cada línea de código ayuda a optimizar decisiones críticas de negocio.
  • Equipos que suman : No vas a estar solo / a. Compartirás proyecto con otros perfiles técnicos como tú.
  • Formación de verdad : Con acceso a MBIT School y un plan adaptado a ti. Porque no creemos en el café para todos.
  • Un paquete retributivo competitivo , con parte fija, variable y beneficios adaptables (tickets, guardería, transporte…).
  • Evaluaciones periódicas y feedback real : No esperamos a fin de año para decirte cómo vas.
  • Si crees que esta posición podría encajar contigo, escríbenos o mándanos tu CV a

    Y si no es para ti pero conoces a alguien que podría estar interesad@… ¡comparte!

    Consigue la evaluación confidencial y gratuita de tu currículum.
    o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.