¡Activa las notificaciones laborales por email!
Mejora tus posibilidades de llegar a la entrevista
Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.
VASS is seeking a skilled Data Engineer to join their dynamic team focused on Data, Advanced Analytics, and AI. The role involves designing and maintaining ETL pipelines using Apache Spark and Python, with a strong emphasis on AWS integration. The company offers a collaborative work environment with flexibility and opportunities for professional growth, including paid certifications. If you're passionate about technology and eager to drive digital transformation, apply now!
¿Buscas seguir creciendo en las mejores condiciones, con cercanía y flexibilidad? ¡Esto te interesa! En VASS, somos líderes en soluciones tecnológicas. Desde nuestro área Comunytek, queremos ampliar nuestro equipo con personas que deseen unirse a un equipo dinámico, flexible y cercano.
Intelygenz DATA & AI, el equipo de VASS especializado en proyectos de Data, Analítica Avanzada, IA Generativa y Document Solutions, llama a tu puerta. Si te gusta la tecnología aplicada, disfrutar trabajando en proyectos innovadores y afrontar retos apasionantes para llevar a nuestros clientes y a nuestra empresa al siguiente nivel, no dejes pasar nuestras oportunidades de crecimiento.
Ofrecemos un ambiente de trabajo colaborativo e inclusivo y flexibilidad para trabajar de manera remota, adaptándote a nuestro modelo smartworking y horarios flexibles. Normalmente trabajamos de lunes a jueves, de 8-9 a 17-18, con jornada intensiva los viernes y en julio y agosto, de 8-15.
Plan de carrera: Buscamos el crecimiento general, apoyando e incentivando el desarrollo laboral y personal de nuestros empleados. Certificaciones: Somos platinum partner de Appian, lo que permite a nuestros equipos obtener certificaciones pagadas durante el año. Salario: Nuestra flexibilidad también se refleja en la remuneración; más detalles en nuestra primera llamada.
¿Cuál será tu día a día con nosotros? Diseñar, construir y mantener pipelines ETL usando Apache Spark, siguiendo las directrices del Data Engineering Lead. Realizar transformaciones complejas, cálculos avanzados y joins en grandes volúmenes de datos en un entorno cloud, garantizando escalabilidad, seguridad y rendimiento. Asegurar la calidad de los datos mediante pruebas automatizadas y validaciones. Documentar procesos ETL y mantener actualizada la arquitectura, en coordinación con el Cloud Engineer para integrar pipelines con AWS. Documentar los procesos ETL según los estándares del equipo.
Skills requeridos: experiencia en desarrollo de pipelines ETL con Apache Spark y Python; conocimientos prácticos en AWS (S3, RDS, IAM, Glue, EMR, Lambda); habilidades en SQL; familiaridad con control de versiones y CI/CD; experiencia en procesamiento de datos en tiempo real (deseable); certificación AWS y conocimientos en banca privada (deseable); buen nivel de inglés (deseable).
Si esto encaja contigo y quieres formar parte de un equipo que impulsa la transformación digital, ¡inscríbete ahora!