¡Activa las notificaciones laborales por email!

Ingeniero de Datos Pentaho Senior - Híbrido

Talentosy

Naucalpan de Juárez

Híbrido

MXN 600,000 - 850,000

Jornada completa

Hace 19 días

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Empieza desde cero o carga un currículum

Descripción de la vacante

Una empresa en crecimiento busca un Ingeniero de Datos con sólida experiencia en el diseño y construcción de pipelines de datos. El candidato ideal tendrá dominio en herramientas ETL como Pentaho, con habilidades avanzadas en SQL y experiencia en optimización de bases de datos. Este rol híbrido se enfoca en asegurar la integridad de los datos y colaborar con equipos multifuncionales para integrar diversas fuentes.

Formación

  • 4+ años de experiencia en ingeniería de datos.
  • Dominio de Pentaho Data Integration (PDI).
  • Habilidades avanzadas en SQL.

Responsabilidades

  • Diseñar, desarrollar y mantener procesos ETL eficientes.
  • Construir y gestionar pipelines de datos robustos.
  • Optimizar el rendimiento de bases de datos y trabajos ETL.

Conocimientos

Optimización de Consultas
Resolución de Problemas
Colaboración

Herramientas

Pentaho Data Integration (PDI)
MySQL
PostgreSQL
Oracle

Descripción del empleo

Empleado de tiempo completo

Posición Hibrida en CDMX
Al menos 4 años de experiencia en el diseño y construcción de pipelines de datos escalables, trabajando con bases de datos relacionales, optimización de consultas complejas y modelado de datos.
Responsabilidades Principales:
Desarrollo ETL: Diseñar, desarrollar y mantener procesos ETL eficientes utilizando Pentaho Data Integration (PDI) para la extracción, transformación y carga de datos desde diversas fuentes.

Gestión de Pipelines de Datos: Construir y gestionar pipelines de datos robustos, escalables y eficientes que respalden iniciativas de análisis, informes y aprendizaje automático.

Optimización de Bases de Datos: Escribir y optimizar consultas SQL complejas para garantizar el rendimiento de bases de datos relacionales como MySQL, PostgreSQL, Oracle u otros RDBMS.

Modelado de Datos: Diseñar e implementar esquemas y modelos de bases de datos que aseguren la integridad de los datos y respalden las necesidades de informes.

Optimización de Rendimiento: Optimizar el rendimiento de pipelines de datos, trabajos ETL y bases de datos, identificando cuellos de botella y mejorando las consultas o procesos.

Integración de Datos: Colaborar con equipos multifuncionales para integrar diversas fuentes de datos y garantizar un flujo de datos fluido hacia el almacén de datos de la organización.

Aseguramiento de Calidad: Implementar validaciones y controles de calidad de datos para asegurar la precisión y fiabilidad de los datos.

Documentación: Mantener documentación detallada de pipelines de datos, arquitectura y procesos para asegurar claridad y facilidad de uso.

Requisitos:
Experiencia: 4+ años de experiencia en ingeniería de datos o un campo relacionado.

Conocimientos de Pentaho: Dominio de Pentaho Data Integration (PDI) u otras herramientas ETL similares.

Conocimientos de Bases de Datos: Sólidos conocimientos de bases de datos relacionales (por ejemplo, MySQL, PostgreSQL, Oracle) y técnicas de optimización de consultas.

Habilidades en SQL: Habilidades avanzadas en SQL, con capacidad demostrada para escribir y optimizar consultas complejas.

Modelado de Datos: Experiencia en modelado de datos y diseño de esquemas de bases de datos.

Pipelines de Datos: Experiencia práctica en el diseño y gestión de pipelines de datos y flujos de trabajo.

Optimización de Rendimiento: Experiencia en la optimización del rendimiento de bases de datos y trabajos ETL.

Resolución de Problemas: Fuertes habilidades analíticas y de resolución de problemas con atención al detalle.

Colaboración: Capacidad para trabajar de manera colaborativa con analistas de negocios, científicos de datos y otros ingenieros.

Habilidades Preferidas:
Experiencia con soluciones de datos en la nube (por ejemplo, AWS, Azure, Google Cloud).

Familiaridad con tecnologías de big data (por ejemplo, Hadoop, Spark).

Conocimientos en almacenamiento de datos y herramientas de BI (por ejemplo, Tableau, Power BI).

Familiaridad con lenguajes de scripting (por ejemplo, Python, Bash) para automatización.

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.