Te apasiona trabajar con datos a escala global?
Esta empresa tecnológica con presencia internacional se caracteriza por su cultura de colaboración, aprendizaje continuo y proyectos innovadores en la nube.
Estamos buscando un / a profesional con experiencia en entornos cloud y orquestación de datos para diseñar, desarrollar y mantener pipelines ETL / ELT robustos para integrar datos desde diversas fuentes internacionales.
A continuación, te presentamos las responsabilidades del cargo :
- Diseñar, desarrollar y mantener pipelines ETL / ELT robustos para integrar datos desde diversas fuentes internacionales.
- Transformar datos en bruto en formatos optimizados que faciliten el análisis y la elaboración de reportes.
- Utilizar Google Cloud Platform (GCP) para diseñar y administrar soluciones escalables de almacenamiento y procesamiento de datos, garantizando la seguridad, confiabilidad y rendimiento.
- Crear y gestionar flujos de trabajo con Apache Airflow mediante DAGs bien estructurados.
- Detectar y resolver problemas en los workflows, optimizando su programación para asegurar la entrega puntual de datos.
- Trabajar con la exportación nativa de BigQuery desde Google Analytics 4 para transformar datos crudos de eventos en tablas estructuradas listas para el análisis.
- Colaborar con equipos de Business Intelligence para alinear los flujos de datos con las necesidades de herramientas como Looker Studio, DOMO y Looker.
- Integrar herramientas modernas de conexión de datos como Stitch Data y evaluar nuevas tecnologías.
- Trabajar estrechamente con analistas, científicos de datos y equipos multidisciplinarios para comprender requerimientos y traducirlos en soluciones efectivas.
- Documentar detalladamente workflows, arquitectura y procesos de transformación de datos.
- Implementar estrategias de validación, monitoreo y pruebas para garantizar la integridad de los pipelines y su rendimiento.
A continuación, te presentamos los requisitos mínimos para el cargo :
- 3 años de experiencia como Data Engineer, preferentemente trabajando con fuentes de datos internacionales.
- Dominio de Google Cloud Platform (GCP) y soluciones de datos en la nube.
- Experiencia demostrada en el uso de Apache Airflow y desarrollo de DAGs.
- Sólida experiencia construyendo pipelines ETL / ELT en producción, y trabajando con herramientas como Stitch Data.
- Capacidad para leer documentación técnica de APIs, manejar flujos de autenticación y desarrollar integraciones desde cero.
- Experiencia con exports de Google Analytics 4 a BigQuery, incluyendo transformación de datos anidados.
- Dominio de SQL y al menos un lenguaje de programación (Python, Java o Scala).
- Conocimiento de plataformas de BI como Looker Studio, DOMO y Looker.
- Familiaridad con sistemas de control de versiones como Git.
A continuación, te presentamos algunos beneficios que ofrecemos :
- Modalidad 100% remoto.
- Seguro de salud para ti y para quien tú elijas.
- Plan de salud física : precio reducido en gimnasio.
- Plan de salud mental : acceso completo a plataforma de acompañamiento para la salud mental.
- Voucher Multi-benefit, para gastar en una gran variedad de opciones.
- Días de asuntos propios extras.
- Jornada intensiva.
- Formación pagada y certificaciones en varias plataformas on-line.
- Cultura de trabajo colaborativa, horizontal y orientada al desarrollo profesional.
Toda esta información es solo una descripción general. Si deseas saber más detalles, no dudes en preguntar.
Crear una alerta de empleo para esta búsqueda