¡Activa las notificaciones laborales por email!

KM-815 | Arquitecto De Datos- Remoto

Q-Tech

Valencia

A distancia

EUR 40.000 - 65.000

Jornada completa

Ayer
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una compañía tecnológica busca un/a Data Engineer en Valencia para diseñar y escalar pipelines en tiempo real con Airflow y Python. Serás responsable de construir el data lake y garantizar la calidad de los datos en un sector regulado. Se requiere experiencia en SQL, Python y herramientas como Airflow y AWS. La posición es completamente remota con flexibilidad horaria.

Servicios

Flexibilidad horaria
Proyecto con propósito real y capacidad de impacto global

Formación

  • 3 años de experiencia en Data Engineering.
  • Experto/a en SQL y Python.
  • Experiencia en Airflow (o similar), PostgreSQL / SQL Server y AWS (S3, RDS, etc.).
  • Conocimientos en contenedores (Docker/Kubernetes).
  • Experiencia en entornos real-time / streaming (ideal).

Responsabilidades

  • Diseñar y escalar pipelines de datos en tiempo real con Airflow y Python.
  • Construir el data lake de la compañía, integrando fuentes de datos críticas.
  • Garantizar la calidad y seguridad de los datos en un sector regulado.
  • Colaborar en un entorno remote-first, con metodología asíncrona.

Conocimientos

SQL
Python
Airflow
Docker
Kubernetes
Entornos real-time / streaming

Herramientas

PostgreSQL
SQL Server
AWS (S3, RDS)
Descripción del empleo
Overview

Buscamos un/a Data Engineer apasionado por el tiempo real. ¿Te imaginas trabajar en una compañía tecnológica que está revolucionando un sector tan crítico como el del transporte aéreo, asegurando que millones de pasajeros lleguen puntuales a su destino? Estamos montando el equipo core de datos y buscamos a la primera persona dedicada 100% a Data Engineering, alguien que quiera sentar las bases de toda la arquitectura de datos de la compañía. Diseñar y escalar pipelines de datos en tiempo real con Airflow y Python. Construir el data lake de la compañía, integrando fuentes de datos críticas. Garantizar la calidad y seguridad de los datos en un sector regulado. Colaborar en un entorno remote-first, con metodología asíncrona.

Responsabilidades
  • Diseñar y escalar pipelines de datos en tiempo real con Airflow y Python.
  • Construir el data lake de la compañía, integrando fuentes de datos críticas.
  • Garantizar la calidad y seguridad de los datos en un sector regulado.
  • Colaborar en un entorno remote-first, con metodología asíncrona.
Requisitos
  • 3 años de experiencia en Data Engineering.
  • Experto/a en SQL y Python.
  • Experiencia con Airflow (o similar), PostgreSQL / SQL Server y AWS (S3, RDS, etc.).
  • Conocimientos en contenedores (Docker/Kubernetes).
  • Experiencia en entornos real-time / streaming (ideal).
Condiciones
  • Posición full remote.
  • Flexibilidad horaria.
  • Proyecto con propósito real y capacidad de impacto global.
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.