¡Activa las notificaciones laborales por email!

Data Engineer

Quantia

Madrid

Híbrido

EUR 40.000 - 60.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una empresa innovadora en Madrid busca un Especialista en Ingeniería de Datos y Despliegue. El candidato ideal diseñará y mantenendrá pipelines de datos, colaborará en proyectos de Machine Learning y asegurará la calidad y seguridad de los datos. Se requiere experiencia en Python, SQL y contenedores. Ofrecemos un entorno híbrido y oportunidades de desarrollo profesional.

Servicios

Salario competitivo basado en rendimiento
Opciones de retribución flexible
Oportunidades de desarrollo profesional
Entorno de trabajo colaborativo y dinámico

Formación

  • Experiencia de 1-3 años en ingeniería de datos y despliegue.
  • Conocimientos en CI/CD y automatización.
  • Comprensión de las buenas prácticas en seguridad y gobernanza de datos.

Responsabilidades

  • Diseñar y desarrollar pipelines de datos desde la ingesta hasta la activación.
  • Colaborar con equipos multidisciplinares para llevar prototipos a producción.
  • Garantizar calidad de datos, validaciones y monitorización de SLAs/SLOs.

Conocimientos

Python
SQL
Docker
Kubernetes
Apache Kafka
Airflow
Big Data

Educación

Grado o Máster en Informática, Ingeniería, o disciplina cuantitativa

Herramientas

Terraform
Grafana
Prometheus
Descripción del empleo

📍 Ubicación: Madrid (modelo híbrido; se requiere residencia en Madrid)

💼 Tipo de contrato: Jornada completa

🎯 Experiencia: 1 – 3 años

📅 Fecha de inicio: Incorporación inmediata

En Quantia Ingeniería y Consultoría, nos especializamos en transformar procesos complejos a través de tecnologías de vanguardia como los agentes de IA, Machine Learning, la digitalización, la analítica avanzada y los gemelos digitales. Nuestros socios son destacadas instituciones financieras a nivel mundial, así como empresas líderes en los sectores energético, telco e industrial.

El rol

Estamos ampliando nuestro equipo y buscamos un Especialista en Ingeniería de Datos y Despliegue con motivación y mentalidad de producto, para diseñar, construir y operar plataformas y pipelines de datos de extremo a extremo, y habilitar despliegues robustos y escalables de servicios y modelos basados en datos. Todo ello enmarcado dentro de proyectos de Machine Learning y Agentic AI.

  • Diseñar y desarrollar pipelines de datos (ETL/ELT) batch y streaming, desde la ingesta hasta la activación en productos y analítica.
  • Construir y mantener data lakes/lakehouses y data warehouses (modelado de datos, particionado, formatos columnares, tablas ACID).
  • Orquestar flujos de trabajo y dependencias de datos, aplicando buenas prácticas de modularidad, versionado y testing.
  • Implementar despliegues reproducibles con contenedores y Kubernetes; automatizar con CI/CD para datos y servicios (Data/ML).
  • Industrializar y exponer datos mediante APIs/servicios (por ejemplo, FastAPI) y/o capas semánticas (dbt, views materiales).
  • Establecer observabilidad y fiabilidad: calidad de datos, validaciones, lineage, monitorización de SLAs/SLOs, costes y rendimiento.
  • Garantizar seguridad y gobernanza: catálogos, IAM, cifrado, secretos, cumplimiento y políticas de acceso.
  • Colaborar con Científicos de Datos, Analistas e Ingeniería de Software para llevar prototipos a producción y mantenerlos operativos.
  • Optimizar rendimiento y coste en la nube; identificar cuellos de botella y oportunidades de automatización.
  • Documentar arquitectura, estándares y mejores prácticas; contribuir a guías internas y plantillas reutilizables.
  • Grado o Máster en Informática, Ingeniería, Telecomunicaciones o disciplina cuantitativa similar.
  • Se valorará formación adicional en Big Data, Data Engineering o Data Science.
  • Programación y SQL:
  • Dominio de Python y SQL para ingeniería de datos.
  • Se valorará experiencia con Scala o Java en ecosistemas Big Data.
  • Procesamiento de datos:
  • Ingesta y mensajería:
  • Kafka/PubSub/Kinesis, Kafka Connect/Debezium, CDC, conectores nativos de nube.
  • Almacenamiento y modelos de datos:
  • Orquestación y transformación:
  • Airflow, Cloud Composer, MWAA o similares.
  • dbt (core/cloud) para modelado y tests.
  • Contenedorización y despliegue:
  • Docker y Kubernetes (EKS/GKE/AKS). Buenas prácticas de images, Helm/Kustomize deseable.
  • CI/CD y automatización:
  • Observabilidad y calidad:
  • Monitorización y alertas (Prometheus/Grafana, Cloud Monitoring).
  • Calidad del dato y linaje: Great Expectations, OpenLineage/Marquez, Data Catalog/Glue/Purview.
  • Infraestructura en la nube (alguno entre AWS, GCP o Azure):
  • IaC deseable: Terraform.
  • APIs y servicios:
  • Exposición de datos y features vía APIs (FastAPI) y endpoints de inferencia; control de versiones y blue/green/rollouts.

Se valorará

  • Experiencia acercando modelos de ML/GenAI a producción junto a MLOps.
  • Conocimientos de seguridad en cloud, redes (VPC/VNet), y gestión de secretos (KMS/Secret Manager).
  • Experiencia con catálogos y gobernanza de datos a escala.

Habilidades interpersonales

  • Comunicación técnica sólida y enfoque orientado al cliente.
  • Capacidad para trabajar en equipos multidisciplinares.
  • Salario competitivo basado en el rendimiento.
  • Opciones de retribución flexible.
  • Oportunidad de trabajar con una empresa líder centrada en la innovación.
  • Entorno de trabajo colaborativo y dinámico.
  • Oportunidades de desarrollo profesional y crecimiento de carrera dentro de una empresa en expansión.

¿Te interesa el reto?

Si tienes experiencia con agentes inteligentes, te apasionan las aplicaciones de IA en el mundo real, nos encantaría saber de ti.

¡Envíanos tu CV y únete a nuestro equipo!

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.