Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Data Analyst Trabajo Remoto

Tsoft

A distancia

MXN 400,000 - 600,000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una compañía de tecnología busca un Ingeniero de Datos en GCP para gestionar pipelines en un entorno Lakehouse y asegurar el consumo analítico en BigQuery. Se requiere un sólido conocimiento de SQL y Python, así como 3+ años de experiencia en Data Engineering. Las responsabilidades incluyen diseñar y mantener pipelines ETL/ELT y colaborar con áreas de negocio. Esta es una excelente oportunidad para los apasionados por la ingeniería de datos en la nube.

Formación

  • 3+ años de experiencia en Data Engineering.
  • Dominio sólido de SQL y Python requeridos.
  • Experiencia práctica en Google Cloud Platform.

Responsabilidades

  • Diseñar y mantener pipelines ETL/ELT hacia Data Lake y BigQuery.
  • Implementar automatización utilizando Cloud Scheduler y Workflows.
  • Asegurar la observabilidad mediante Cloud Logging y Monitoring.

Conocimientos

SQL
Python
Data Engineering
Modelado analítico

Herramientas

Google Cloud Platform
BigQuery
Dataform
Cloud Storage
Pub/Sub
Descripción del empleo
Overview

¡Únete a nuestro equipo como Ingeniero de Datos en GCP! En TSOFT buscamos un Data Engineer con experiencia en Google Cloud Platform para construir y operar pipelines bajo un enfoque Lakehouse. Tu misión será gestionar las capas Bronze, Silver y Gold, habilitando el consumo analítico en BigQuery y datamarts, con un foco estratégico en calidad, observabilidad y gobierno de datos.

Principales responsabilidades
  • Diseñar y mantener pipelines ETL/ELT desde fuentes diversas hacia Data Lake y BigQuery.
  • Implementar automatización y orquestación con servicios como Cloud Scheduler, Workflows y Pub/Sub.
  • Desarrollar transformaciones y modelos con Dataform, aplicando controles de Data Quality.
  • Asegurar la observabilidad mediante Cloud Logging y Monitoring.
  • Colaborar con áreas de negocio y apoyar integraciones con fuentes como SAP.
Requisitos clave
  • ~3+ años en Data Engineering.
  • Dominio sólido de SQL, Python y modelado analítico.
  • Experiencia práctica en GCP con BigQuery, Cloud Storage, Pub/Sub, Functions, Scheduler, etc.
  • Conocimiento de Git/GitHub para control de versiones.
Se valorará positivamente
  • Experiencia con Dataform, Data Governance y fuentes SAP.
  • Conocimientos en observabilidad de pipelines (SLAs/SLOs) y seguridad en GCP (IAM, service accounts).

Si te apasiona la ingeniería de datos en la nube y quieres contribuir a una arquitectura escalable y bien gobernada, ¡esta oportunidad es para ti!

¿Interesado/a? Puedes enviar tu CV o contactarme por mensaje privado para más detalles.

#DataEngineering #GCP #GoogleCloud #BigQuery #Dataform #ETL #DataLake #DataWarehouse #OfertaDeEmpleo #TrabajoRemoto #IngenieríaDeDatos

Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.