Desarrollador Spark / scala

Sé de los primeros solicitantes.
Solo para miembros registrados
Logroño
A distancia
EUR 35.000 - 50.000
Sé de los primeros solicitantes.
Hace 7 días
Descripción del empleo

Con experiencia en entornos de procesamiento de datos distribuidos, para integrarse a un equipo de ingeniería de datos de alto rendimiento. El candidato ideal tendrá sólidos conocimientos de:

  • Orquestación de workflows y experiencia trabajando en Databricks.

Es necesario contar con un nivel de inglés C1 para poder trabajar en proyectos internacionales.

VASS es una empresa de soluciones digitales especializada en tecnologías punteras, con presencia en Europa, América, Asia y Australia. Emoción, cercanía, soluciones innovadoras, proyectos emocionantes, desarrollo profesional, ilusión, compromiso y felicidad. Si estás interesado en continuar tu carrera profesional, podemos hacerlo posible JUNTOS. Queremos que seas la mejor versión de ti mismo. TU TALENTO, NUESTRO ADN ¡Te damos la bienvenida a tu futuro!

Ofrecemos un ambiente de trabajo colaborativo e inclusivo. Modelo de trabajo 100% remoto en España, con flexibilidad horaria (usualmente de lunes a jueves de 8-9 a 17-18) y jornada intensiva los viernes y durante los meses de verano en Julio y Agosto (8-15). Además, contamos con un plan de carrera que apoya e incentiva el crecimiento laboral y personal, y un roadmap individualizado para certificaciones relevantes.

Responsabilidades:

  • Diseñar, desarrollar y optimizar procesos de transformación de datos en Scala.
  • Implementar y mantener pipelines de datos eficientes y escalables.
  • Trabajar con herramientas de orquestación como Apache Airflow para gestionar flujos de trabajo complejos.
  • Desarrollar y ejecutar consultas SQL sobre grandes volúmenes de datos.
  • Participar en el diseño y despliegue de soluciones sobre plataformas como Databricks.
  • Colaborar con científicos de datos, analistas y otros equipos técnicos.
  • Garantizar la calidad, documentación y trazabilidad de los procesos desarrollados.

Requisitos:

  • Python avanzado.
  • Experiencia comprobada en desarrollo con Apache Spark.
  • Sólidos conocimientos en SQL avanzado.
  • Conocimientos en planificación de Jobs y orquestación de flujos de datos con Apache Airflow.
  • Familiaridad con entornos cloud, preferentemente Azure Databricks.
  • Experiencia trabajando con grandes volúmenes de datos (Big Data).
  • Nivel de inglés C1.

Requisitos deseables:

  • Experiencia en metodologías ágiles (Scrum, Kanban).
  • Conocimientos adicionales valorados en otras tecnologías relacionadas.

¿Cómo aplicar?

Crear una alerta de empleo para esta búsqueda