¡Activa las notificaciones laborales por email!

Data Engineer

Matchtech

Pamplona

A distancia

EUR 45.000 - 55.000

Jornada completa

Hace 2 días
Sé de los primeros/as/es en solicitar esta vacante

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Une entreprise technologique internationale recherche un Data Engineer passionné par les données à grande échelle. Vous serez responsable de concevoir et maintenir des pipelines ETL/ELT en utilisant GCP, tout en collaborant avec des équipes multidisciplinaires pour créer des solutions de données efficaces. Ce rôle, entièrement à distance, offre un salaire compétitif et de nombreux avantages pour le bien-être des employés.

Servicios

Modalité 100% remote
Assurance santé
Plan de santé physique
Plan de santé mentale
Chèques multi-avantages
Journée intensive
Formation payée

Formación

  • 3 ans d'expérience comme Data Engineer avec des sources de données internationales.
  • Expérience avec GCP et Apache Airflow.
  • Capacité à lire de la documentation technique d'APIs et à développer des intégrations.

Responsabilidades

  • Concevoir et maintenir des pipelines ETL/ELT pour intégrer des données.
  • Utiliser GCP pour gérer des solutions de données sécurisées et évolutives.
  • Collaborer avec des équipes de Business Intelligence pour aligner les flux de données.

Conocimientos

ETL
ELT
GCP
Apache Airflow
SQL
Python

Herramientas

Stitch Data
BigQuery
Git

Descripción del empleo

Te apasiona trabajar con datos a escala global? Esta empresa tecnológica con presencia internacional se caracteriza por su cultura de colaboración, aprendizaje continuo y proyectos innovadores en la nube.

Estamos buscando un / a

con experiencia en entornos cloud y orquestación de datos para unirse a nuestro equipo en crecimiento .

Si te interesa trabajar con equipos internacionales, construir soluciones escalables y participar en proyectos con impacto real en el negocio, esta oportunidad es para ti.

Diseñar, desarrollar y mantener pipelines ETL / ELT robustos para integrar datos desde diversas fuentes internacionales. Transformar datos en bruto en formatos optimizados que faciliten el análisis y la elaboración de reportes. Utilizar Google Cloud Platform (GCP) para diseñar y administrar soluciones escalables de almacenamiento y procesamiento de datos, garantizando la seguridad, confiabilidad y rendimiento. Crear y gestionar flujos de trabajo con Apache Airflow mediante DAGs bien estructurados. Detectar y resolver problemas en los workflows, optimizando su programación para asegurar la entrega puntual de datos. Trabajar con la exportación nativa de BigQuery desde Google Analytics 4 para transformar datos crudos de eventos en tablas estructuradas listas para el análisis (incluyendo campos anidados como event_params y user_properties). Colaborar con equipos de Business Intelligence para alinear los flujos de datos con las necesidades de herramientas como Looker Studio, DOMO y Looker. Integrar herramientas modernas de conexión de datos como Stitch Data y evaluar nuevas tecnologías. Trabajar estrechamente con analistas, científicos de datos y equipos multidisciplinarios para comprender requerimientos y traducirlos en soluciones efectivas. Documentar detalladamente workflows, arquitectura y procesos de transformación de datos. Implementar estrategias de validación, monitoreo y pruebas para garantizar la integridad de los pipelines y su rendimiento.

  • 3 años de experiencia como Data Engineer, preferentemente trabajando con fuentes de datos internacionales. Dominio de Google Cloud Platform (GCP) y soluciones de datos en la nube. Experiencia demostrada en el uso de Apache Airflow y desarrollo de DAGs. Sólida experiencia construyendo pipelines ETL / ELT en producción, y trabajando con herramientas como Stitch Data. Capacidad para leer documentación técnica de APIs, manejar flujos de autenticación y desarrollar integraciones desde cero. Experiencia con exports de Google Analytics 4 a BigQuery, incluyendo transformación de datos anidados. Dominio de SQL y al menos un lenguaje de programación (Python, Java o Scala). Conocimiento de plataformas de BI como Looker Studio, DOMO y Looker. Familiaridad con sistemas de control de versiones como Git.

Beneficios :

Modalidad 100% remoto Salario hasta 55K (dependiendo de la experiencia) Seguro de salud para ti y para quien tú elijas. Physical Health Plan : Precio reducido en gimnasio Mental Health Plan : Acceso completo a plataforma de acompañamiento para la salud mental. Multi- benefit Voucher, para gastar en una gran variedad de opciones. Días de asuntos propios extras Jornada intensiva Formación pagada y certificaciones en varias plataformas on-line. Cultura de trabajo colaborativa, horizontal y orientada al desarrollo profesional.

Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.