
¡Activa las notificaciones laborales por email!
Genera un currículum adaptado en cuestión de minutos
Consigue la entrevista y gana más. Más información
Una empresa mexicana en TI busca un Data Engineer Sr con al menos 5 años de experiencia para diseñar y desarrollar sistemas de procesamiento de datos. El candidato ideal debe tener sólidos conocimientos en Python y SQL, así como experiencia con herramientas ETL y tecnologías de Big Data como Hadoop. Se ofrece modalidad remota y prestaciones superiores. Se valora un ambiente inclusivo y libre de discriminación.
idsComercialesunaempresa100%mexicanadedicadaaTIcon40añosdeexperienciaypresenciaenMéxico,LatinoaméricayEEUU.Másde1500consultorestrabajanconungrannúmerodeproyectosdentrodelossectoresfinanciero,comercial,manufacturero,telecomunicaciones,servicios,gobierno,entreotros.EstamosacreditadosenelNivel5deCMMI(CapabilityMaturityModelIntegration),modelodecalidadestablecidoporelSoftwareEngineeringInstitute(SEI).CertificadosporpartedeISOenlanormaISO/IEC27001:2013.ContamoscondistintivodeEmpresaSocialmenteResponsable(ESR).
Licenciatura en Informática, Sistemas, o afín (Titulado). Experiencia mínima de 5 años. Conocimientos técnicos: Experiencia con Python para escribir canalizaciones de datos y capas de procesamiento de datos. Amplia experiencia y manejo SQL, optimizadas para la transformación de datos y la implementación de reglas comerciales. Experiencia práctica con herramientas ETL, como Dataiku, para la preparación, transformación y orquestación de pipelines de datos. Demuestra experiencia actualizada en ingeniería de datos y desarrollo de canales de datos complejos. Experiencia en modelos ágiles. Experiencia en Airflow y Github. Diseñar, desarrollar, implementar y ajustar sistemas y canalizaciones distribuidos a gran escala que procesen grandes volúmenes de datos, centrándose en la escalabilidad, la baja latencia y la tolerancia a fallos en cada sistema construido. Demuestra experiencia en la redacción de consultas complejas y altamente optimizadas en grandes conjuntos de datos. Experiencia laboral comprobada con tecnologías de Big Data Hadoop, Hive, Kafka, Presto, Spark, HBase. Altamente competente en SQL (Consultas y Procedimientos Almacenados). Experiencia con tecnologías en la nube (GCP y Azure Blob Storage). Experiencia con modelo relacional, almacenes de datos en memoria deseables (Oracle, Cassandra, Druid). Proporciona y respalda la implementación y las operaciones de los canales de datos y soluciones analíticas. Experiencia en ajuste del rendimiento de sistemas que trabajan con grandes conjuntos de datos. Experiencia en servicio de datos REST API Consumo de Datos. IDE como: IntelliJ IDEA, Eclipse, Visual Studio Code. Construya servicios web con frameworks Python (Django, FastAPI o Flask) SO Windows y Linux y habilidades con consola. Diseñar, desarrollar, implementar y ajustar sistemas y canalizaciones distribuidos a gran escala que procesen grandes volúmenes de datos; centrándose en la escalabilidad, la baja latencia y la tolerancia a fallos en cada sistema construido. Experiencia laboral con Big Data Technologies Hadoop, Hive, Kafka, Presto, Spark, HBase, Automic y Aorta.
Remota
Prestaciones de Ley. Prestaciones superiores de Ley. 100% nómina.
Somos una empresa inclusiva y libre de cualquier tipo de discriminación, donde las oportunidades son para quien muestra actitud y talento. Nos solicitamos certificados médicos de no embarazo y Virus de Inmunodeficiencia Humana (VIH) como requisitos para que se forme parte de nuestra gran familia de trabajo y puedas acceder a las mismas oportunidades de crecimiento.