
¡Activa las notificaciones laborales por email!
Genera un currículum adaptado en cuestión de minutos
Consigue la entrevista y gana más. Más información
Una empresa de tecnología busca un profesional con amplia experiencia en el diseño y desarrollo de sistemas ETL. El candidato ideal debe tener habilidades en Python y herramientas como Apache Airflow y Kafka, así como experiencia en la construcción de arquitecturas de datos para asegurar la calidad de la información. Se valorará la capacidad para trabajar con múltiples fuentes de datos y realizar procesos de análisis complejos.
Profesional con amplia experiencia en el diseño, desarrollo e implementación de sistemas ETL para la ingestión, transformación y carga de datos desde múltiples fuentes, incluyendo Athena y Postgres. Especialista en la creación de pipelines de datos eficientes y escalables utilizando herramientas como Apache Airflow, Apache Kafka, Apache Spark y Python. Orientado a la construcción de arquitecturas de datos organizadas (capa bronce) y al aseguramiento de la calidad e integridad de la información. Cuenta con experiencia en el consumo y procesamiento de jerarquías de artículos en tiempo real mediante Kafka, así como en el análisis y mapeo de vistas complejas (como ZCDS view).