Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Data Engineer 1

STEFANINI LATAM

Ciudad de México

Híbrido

MXN 200,000 - 400,000

Jornada completa

Ayer
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una empresa tecnológica global busca un Data Engineer en Ciudad de México para diseñar y mantener procesos de integración y transformación de datos. El candidato ideal debe tener de 3 a 5 años de experiencia comprobable, habilidades en Python y SQL, y la capacidad de trabajar en equipos multidisciplinarios. Se valorará experiencia en plataformas como Cloudera y Snowflake. Esta posición ofrece un entorno de trabajo híbrido, donde las ideas brillan y el compromiso importa.

Formación

  • De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
  • Dominio en el desarrollo de procesos ETL utilizando Python.
  • Sólida experiencia en el uso de SQL para diseño de consultas complejas.

Responsabilidades

  • Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
  • Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake.
  • Administrar y transformar grandes volúmenes de datos alojados en Data Lakes.

Conocimientos

Diseño de procesos ETL utilizando Python
Gestión de grandes volúmenes de datos
Optimización de consultas SQL
Colaboración con equipos de negocio
Comunicación efectiva
Capacidad analítica
Trabajo en equipo multidisciplinario

Herramientas

Cloudera
Snowflake
Hadoop
Hive
Spark
Descripción del empleo

En Stefanini somos más de 30.000 genios, conectados desde 40 países, haciendo lo que les apasiona y co-creando un futuro mejor.

¡Seguro no te quieres quedar fuera!

El Data Engineer es responsable de diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL), asegurando la calidad, disponibilidad e integridad de la información dentro de la organización. Trabaja en la implementación y optimización de pipelines de datos en plataformas modernas, permitiendo el análisis avanzado, la minería de datos y el desarrollo de reportes y dashboards para los usuarios de negocio y analítica. Colabora estrechamente con otros equipos para garantizar que los datos sean accesibles y confiables a lo largo de todo su ciclo de vida.

  • Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
  • Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.
  • Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.
  • Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.
  • Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.
  • Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.
  • Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.
  • De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
  • Capacidad analítica y orientación a la resolución de problemas.
  • Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.
  • Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.
  • Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.
  • Dominio en el desarrollo de procesos ETL utilizando Python.
  • Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.
  • Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.
  • Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.
  • Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).
  • Deseable: conocimientos básicos de Hadoop, Hive y Spark.
  • Deseable: conocimientos en analítica avanzada.
Creer para co-crear

¿Buscas un lugar donde tus ideas brillen?

Con más de 38 años y una presencia global, en Stefanini transformamos el mañana juntos. Aquí, cada acción cuenta y cada idea puede marcar la diferencia. Únete a un equipo que valora la innovación, el respeto y el compromiso.

Si eres una persona disruptiva, te mantienes en aprendizaje continuo y la innovación está en tu ADN, entonces somos lo que buscas. ¡Ven y construyamos juntos un futuro mejor!

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.