
¡Activa las notificaciones laborales por email!
Genera un currículum adaptado en cuestión de minutos
Consigue la entrevista y gana más. Más información
Una compañía tecnológica busca un profesional con experiencia en Big Data para liderar proyectos innovadores. El candidato ideal debe tener más de 7 años en el área de datos, y experiencia en Python, Spark, y tecnologías de nube. La posición ofrece estabilidad, horarios flexibles y beneficios atractivos. Si deseas ser parte de un equipo colaborativo, ¡esta es tu oportunidad!
En Erhardt SERIKAT precisamos un perfil como el tuyo, con amplia experiencia en el mundo Big Data, para liderar importantes proyectos que estamos abordando en dicho área.
Erhardt Serikat está transitando por algunos de los desafíos tecnológicos más excitantes de nuestro tiempo ¡Imagina trabajar con las tecnologías más disruptivas en un entorno en el que se promueve la diversidad, la inclusión y la igualdad de oportunidades!
Y, lo más importante, ¡estamos muy orgullosos de nuestro ambiente laboral! Contamos con un espectacular equipo de trabajo colaborativo, con entusiasmo y motivación.
Serías la persona responsable de gestionar algunos de los proyectos que estamos liderando en el ámbito Big Data. Algunos de los puntos más destacables del día a día serían :
La gestión del ciclo completo de los proyectos, desde la obtención de la información, hasta su explotación, incluyendo la realización de procesos ETL y el diseño de sistemas informacionales.
El control los plazos y costes de los proyectos asignados.
La coordinación del equipo de ingenieros de datos para la realización de procesos ETL basados en tecnologías Big Data.
El asesoramiento en el diseño de soluciones tecnológicas alineadas con las necesidades de negocio.
Necesitamos que cuentes con, al menos, un año de experiencia en gestión de proyectos y, mínimo, 7 años de experiencia total en el mundo del dato.
Además, deberás contar con experiencia demostrable en el siguiente stack tecnológico :
Python y Spark / Pyspark
Transact SQL
Experiencia de 5 años en tecnologías Big Data (preferiblemente dentro del ecosistema Apache Hadoop) y entornos cloud (preferiblemente Azure)
Uso de herramientas de control de versión de código (Git)
Experiencia en la realización de ETLs y modelos informacionales
Herramientas de visualización y realización de dashboards, preferiblemente PowerBI
DESEABLE
Otros lenguajes de programación : Scala, R, Java
Experiencia en metodologías agile (kanban, scrum, design thinking, …)
Conocimientos de Apache Kafka, NIFI, ElasticSearch
BBDD No relacionales
Se valorará positivamente residencia en País indispensable).
No lo dudes, ¡te estamos esperando!