¡Activa las notificaciones laborales por email!

Data Engineer

Matchtech

Salamanca

Presencial

EUR 40.000 - 55.000

Jornada completa

Hace 15 días

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Empieza desde cero o carga un currículum

Descripción de la vacante

Une entreprise technologique internationale recherche un Data Engineer passionné par le travail avec des données à l'échelle mondiale. Le candidat idéal aura de l'expérience en intégration de données cloud et une connaissance approfondie de GCP. Ce rôle offre des opportunités de travail à distance et un salaire compétitif allant jusqu'à 55K, en plus de divers avantages tels qu'une couverture santé complète et des programmes de bien-être.

Servicios

Modalité 100% remote
Assurance santé
Plan de santé physique
Plan de santé mentale
Chèque multi-avantages
Jours supplémentaires pour affaires personnelles
Formation et certifications payées

Formación

  • 3 ans d'expérience en tant qu'ingénieur des données.
  • Maîtrise de l'intégration de données dans un environnement cloud.
  • Expérience dans la création de pipelines ETL/ELT en production.

Responsabilidades

  • Concevoir, développer et maintenir des pipelines ETL/ELT robustes.
  • Utiliser GCP pour gérer des solutions de stockage et de traitement.
  • Collaborer avec des équipes de BI pour aligner les flux de données.

Conocimientos

Google Cloud Platform (GCP)
Apache Airflow
SQL
Python
Java
Scala

Herramientas

Stitch Data
BigQuery

Descripción del empleo

Te apasiona trabajar con datos a escala global? Esta empresa tecnológica con presencia internacional se caracteriza por su cultura de colaboración, aprendizaje continuo y proyectos innovadores en la nube.

Estamos buscando un / a

con experiencia en entornos cloud y orquestación de datos para unirse a nuestro equipo en crecimiento .

Si te interesa trabajar con equipos internacionales, construir soluciones escalables y participar en proyectos con impacto real en el negocio, esta oportunidad es para ti.

Diseñar, desarrollar y mantener pipelines ETL / ELT robustos para integrar datos desde diversas fuentes internacionales. Transformar datos en bruto en formatos optimizados que faciliten el análisis y la elaboración de reportes. Utilizar Google Cloud Platform (GCP) para diseñar y administrar soluciones escalables de almacenamiento y procesamiento de datos, garantizando la seguridad, confiabilidad y rendimiento. Crear y gestionar flujos de trabajo con Apache Airflow mediante DAGs bien estructurados. Detectar y resolver problemas en los workflows, optimizando su programación para asegurar la entrega puntual de datos. Trabajar con la exportación nativa de BigQuery desde Google Analytics 4 para transformar datos crudos de eventos en tablas estructuradas listas para el análisis (incluyendo campos anidados como event_params y user_properties). Colaborar con equipos de Business Intelligence para alinear los flujos de datos con las necesidades de herramientas como Looker Studio, DOMO y Looker. Integrar herramientas modernas de conexión de datos como Stitch Data y evaluar nuevas tecnologías. Trabajar estrechamente con analistas, científicos de datos y equipos multidisciplinarios para comprender requerimientos y traducirlos en soluciones efectivas. Documentar detalladamente workflows, arquitectura y procesos de transformación de datos. Implementar estrategias de validación, monitoreo y pruebas para garantizar la integridad de los pipelines y su rendimiento.

  • 3 años de experiencia como Data Engineer, preferentemente trabajando con fuentes de datos internacionales. Dominio de Google Cloud Platform (GCP) y soluciones de datos en la nube. Experiencia demostrada en el uso de Apache Airflow y desarrollo de DAGs. Sólida experiencia construyendo pipelines ETL / ELT en producción, y trabajando con herramientas como Stitch Data. Capacidad para leer documentación técnica de APIs, manejar flujos de autenticación y desarrollar integraciones desde cero. Experiencia con exports de Google Analytics 4 a BigQuery, incluyendo transformación de datos anidados. Dominio de SQL y al menos un lenguaje de programación (Python, Java o Scala). Conocimiento de plataformas de BI como Looker Studio, DOMO y Looker. Familiaridad con sistemas de control de versiones como Git.

Beneficios :

Modalidad 100% remoto Salario hasta 55K (dependiendo de la experiencia) Seguro de salud para ti y para quien tú elijas. Physical Health Plan : Precio reducido en gimnasio Mental Health Plan : Acceso completo a plataforma de acompañamiento para la salud mental. Multi- benefit Voucher, para gastar en una gran variedad de opciones. Días de asuntos propios extras Jornada intensiva Formación pagada y certificaciones en varias plataformas on-line. Cultura de trabajo colaborativa, horizontal y orientada al desarrollo profesional.

Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.