Debido al gran volumen de proyectos asociados a procesamiento de datos con Spark, buscamos perfiles con experiencia en Spark con Scala o PySpark, con una fuerte orientación a la eficiencia y el rendimiento.
¿Qué buscamos?
Experiencia de 3 a 5 años en desarrollo con Apache Spark en Scala o Python.
(Podemos valorar perfiles con al menos 2 años y medio si demuestran un alto nivel técnico).
Conocimiento y experiencia en optimización de rendimiento, aplicando técnicas para reducir el uso de recursos y costes asociados al procesamiento de datos.
Capacidad de trabajo en equipo y autonomía en entornos técnicos exigentes.
Nivel de inglés B2/C1 idealmente (aunque valoramos perfiles técnicos potentes sin inglés).