¡Activa las notificaciones laborales por email!

Desarrollador Spark / scala

VASS

Santiago de Compostela

A distancia

EUR 35.000 - 55.000

Jornada completa

Hace 4 días
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Empieza desde cero o carga un currículum

Descripción de la vacante

Una empresa de soluciones digitales busca un Desarrollador Spark/Scala para unirse a su equipo de ingeniería de datos. El puesto incluye el diseño y desarrollo de procesos de datos en entornos distribuidos utilizando herramientas avanzadas como Spark y Databricks, trabajar con grandes volúmenes de datos, y colaborar con equipos técnicos en proyectos internacionales. Se requiere un nivel de inglés C1 y sólida experiencia en SQL y orquestación de flujos de datos.

Servicios

Modelo de trabajo 100% remoto
Plan de carrera individualizado
Certificaciones en tecnologías punteras
Ambiente de trabajo colaborativo

Formación

  • Experiencia comprobada en desarrollo con Apache Spark.
  • Conocimientos sólidos en SQL avanzado.
  • Familiaridad con entornos cloud como Azure, AWS o GCP.

Responsabilidades

  • Diseñar, desarrollar y optimizar procesos de transformación de datos en Apache Spark usando Scala.
  • Implementar y mantener pipelines de datos eficientes y escalables.
  • Trabajar con herramientas de orquestación como Apache Airflow.

Conocimientos

SQL
Apache Airflow
Apache Spark
Python
Databricks
Big Data
Control M
Azure
AWS
GCP

Descripción del empleo

Ampliamos nuestro equipo de desarrollo! Buscamos un Desarrollador Spark / Scala con experiencia en entornos de procesamiento de datos distribuidos, para integrarse a un equipo de ingeniería de datos de alto rendimiento. El candidato ideal tendrá sólidos conocimientos de SQL , manejo de Apache Airflow para orquestación de workflows y experiencia trabajando en Databricks . Es necesario contar con un nivel de inglés C1 para poder trabajar en proyectos internacionales.

VASS es una empresa de soluciones digitales especializada en tecnologías punteras, con presencia en Europa, América, Asia y Australia. Emoción, cercanía, soluciones innovadoras, proyectos emocionantes, desarrollo profesional, ilusión, compromiso y felicidad. Si estás interesado en continuar tu carrera profesional, podemos hacerlo posible JUNTOS. Queremos que seas la mejor versión de ti mismo. TU TALENTO, NUESTRO ADN ¡Te damos la bienvenida a tu futuro!

  • Un ambiente de trabajo colaborativo e inclusivo.
  • Modelo de trabajo 100% remoto en España, con flexibilidad horaria (solemos trabajar de lunes a jueves de 8-9 a 17-18) y jornada intensiva los viernes y meses de verano de Julio y Agosto (8-15).
  • Plan de carrera : Buscamos el crecimiento general y eso conlleva apoyar e incentivar el crecimiento de nuestros empleados a nivel laboral y personal.
  • Certificaciones : ofrecemos un roadmap individualizado en función de las certificaciones que te puedan interesar.
  • Diseñar, desarrollar y optimizar procesos de transformación de datos en Apache Spark usando Scala .
  • Implementar y mantener pipelines de datos eficientes y escalables.
  • Trabajar con herramientas de orquestación como Apache Airflow para gestionar flujos de trabajo complejos.
  • Desarrollar y ejecutar consultas SQL sobre grandes volúmenes de datos.
  • Participar en el diseño y despliegue de soluciones sobre plataformas como Databricks .
  • Colaborar estrechamente con científicos de datos, analistas y otros equipos técnicos.
  • Garantizar la calidad, documentación y trazabilidad de los procesos desarrollados.

REQUISITOS :

  • Python avanzado.
  • Experiencia comprobada en desarrollo con Apache Spark.
  • Conocimientos sólidos en SQL avanzado .
  • Conocimientos de postgreSQL.
  • Control M para la planificación de Jobs.
  • Experiencia en orquestación de flujos de datos con Apache Airflow .
  • Conocimiento práctico de Databricks (incluyendo Notebooks, Jobs, Clusters, DBFS, etc.).
  • Familiaridad con entornos cloud como Azure , AWS o GCP (preferentemente Azure Databricks).
  • Experiencia trabajando con grandes volúmenes de datos (Big Data).

Requisitos deseables :

  • Experiencia en metodologías ágiles (Scrum, Kanban).
  • Valorable conocimiento en KOLT (Lambda validations, Lambda SQL ..)

Cómo aplicar?

Crear una alerta de empleo para esta búsqueda

Desarrollador • santiago de compostela, España

Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.