¡Activa las notificaciones laborales por email!

Big Data Engineer Gcp, Madrid

Randstad ES

Madrid

Presencial

EUR 40.000 - 60.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una empresa de consultoría tecnológica busca un Ingeniero de Big Data especializado en GCP para diseñar y desarrollar pipelines de datos. Se requiere experiencia en Python y al menos 4 años en el stack de GCP. Se ofrecen beneficios como un plan de formación continua, horario flexible y salario competitivo en Madrid.

Servicios

Plan de formación continua
Horario flexible
Salario competitivo

Formación

  • 4 años de experiencia en proyectos reales utilizando GCP.
  • Dominio avanzado de Python para desarrollo de procesos ETL/ELT.
  • Familiaridad con el despliegue de recursos mediante Terraform.

Responsabilidades

  • Diseñar y desarrollar pipelines de datos utilizando GCP.
  • Gestionar el Data Warehouse corporativo en BigQuery.
  • Automatizar infraestructura como código con Terraform.
  • Integrar sistemas críticos, especialmente SAP.
  • Desarrollar y mantener integraciones con APIs externas.
  • Aplicar mejores prácticas de ingeniería en el ciclo de vida de datos.

Conocimientos

Google Cloud Platform (GCP)
Python
ETL/ELT

Educación

Ingeniero Superior, Grado

Herramientas

BigQuery
Terraform
Descripción del empleo
Big Data Engineer Gcp

¿Tienes experiencia en Google Cloud y quieres desarrollar tu carrera como ingeniero / a de Big Data?

nuestro cliente

Randstad Digital es la empresa de consultoría tecnológica del grupo Randstad especializada en servicios tecnológicos estables. Estamos presentes en más de 20 mercados y contamos con más de 25.000 especialistas a nivel global y a nivel nacional con más de 400 y tenemos oficinas en Madrid, Barcelona, Valencia, Sevilla, Zaragoza, Bilbao y Valladolid. Ofrecemos una amplia gama de servicios y soluciones tecnológicas para empresas de diferentes sectores : Banca, Seguros, Industria, Telecomunicaciones, Media, Digital, Aeronáutica, Automoción, Servicios y Administraciones públicas.

tus funciones

Diseño y Desarrollo de Pipelines de Datos : Serás responsable de construir y automatizar los procesos de extracción, transformación y carga (ETL / ELT). Esto implica el desarrollo avanzado en Python y el uso nativo de servicios de GCP como Dataflow (para procesamiento masivo) y Cloud Composer (Airflow) para orquestar los flujos de trabajo.

Gestión del Data Warehouse Corporativo : Te encargarás de la ingesta y optimización de datos dentro de BigQuery. Esto incluye el modelado de datos, la optimización de consultas SQL complejas y la gestión de la arquitectura de almacenamiento en Cloud Storage.

Automatización de Infraestructura (IaC) : Liderarás la definición y el despliegue de la infraestructura de datos utilizando Terraform. Tu objetivo es garantizar que todos los componentes (bases de datos, sistemas de mensajería como Pub / Sub, clústeres de Dataproc, etc.) se gestionen como código, de forma versionada y reproducible.

Integración de Sistemas Críticos (SAP) : Una función clave será conectar y extraer datos de sistemas empresariales complejos, con un enfoque prioritario en SAP. Deberás desarrollar los conectores y procesos necesarios para mover datos desde SAP hacia Google Cloud de forma robusta.

Exposición y Consumo de Datos vía APIs : Desarrollarás y mantendrás integraciones con APIs externas (REST / SOAP), tanto para consumir datos de fuentes de terceros (ej. Comerzia) como para exponer los datos de la plataforma a otros sistemas, permitiendo una comunicación bidireccional.

Calidad y colaboración : Aplicarás las mejores prácticas de ingeniería de software al ciclo de vida de los datos, utilizando Git para el control de versiones, revisión de código y colaboración con el resto del equipo.

requisitos del puesto
  • Formación : Ingeniero Superior, Grado
  • Conocimientos : Google Cloud Platform (GCP)
  • Experiencia : 4 años

Experiencia Práctica en Google Cloud (GCP) : Haber trabajado de forma demostrable en proyectos reales utilizando el stack de datos de GCP. Se requiere fluidez en el uso de BigQuery (como Data Warehouse), / Dataflow (para procesamiento) y Cloud Composer (para orquestación de pipelines).

Dominio de Python para Datos : Nivel avanzado de Python orientado específicamente al desarrollo de procesos ETL / ELT, manipulación de datos (con librerías como Pandas) y creación de scripts de automatización.

Conocimiento Sólido de Bases de Datos : Experiencia tanto con bases de datos relacionales (SQL), incluyendo diseño de modelos de datos y optimización de consultas complejas, como con bases de datos NoSQL.

Cultura de Infraestructura como Código (IaC) : Estar familiarizado con el despliegue y la gestión de recursos en la nube mediante Terraform. El candidato debe entender la importancia de versionar la infraestructura.

tus beneficios

¿A qué esperas para formar parte de nuestro gran equipo Randstad Digital?, aquí encontrarás motivos para ello : PLAN DE FORMACIÓN CONTINUA, plan de formación anual, acceso a plataforma elearning de formación técnica, plataforma de formación en habilidades¿ ACOMPAÑAMIENTO Y PLAN DE CARRERA, Tendrás un referente de Randstad Digital cerca de ti en todo momento. CONCILIACIÓN, Sabemos que tu vida personal es tan importante como la profesional por eso podrás disfrutar de 23 días de vacaciones y en la mayoría de nuestros proyectos tendrás un horario flexible. COMPROMISO y ESTABILIDAD, Incorporación a empresa en continuo crecimiento que apuesta por las nuevas tecnologías. SALARIO COMPETITIVO acorde a tu experiencia profesional. CONDICIONES contractuales competitivas, Plan de retribución flexible (tarjeta restaurante y cheques guardería) y Randstad Care, plataforma de ofertas y descuentos exclusivos.

gcp, ETL, Python

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.