¡Activa las notificaciones laborales por email!

Azure Data Engineer (Remoto)

Scalian Spain

León

A distancia

EUR 30.000 - 50.000

Jornada completa

Ayer
Sé de los primeros/as/es en solicitar esta vacante

Mejora tus posibilidades de llegar a la entrevista

Elabora un currículum adaptado a la vacante para tener más posibilidades de triunfar.

Descripción de la vacante

Une entreprise internationale recherche un Data Engineer spécialisé dans les technologies Azure et Spark. Vous rejoindrez une équipe technique de haut niveau, responsable de la conception et de la mise en œuvre de solutions de données modernes, tout en bénéficiant d'un environnement de travail 100% télétravail.

Servicios

100% Télétravail

Formación

  • Expérience en PySpark et Spark SQL requise.
  • Anglais fluide (niveau professionnel) nécessaire.
  • Familiarité avec DevOps et sécurité Azure appréciée.

Responsabilidades

  • Concevoir et implémenter des canalisations de données avec PySpark.
  • Garantir la qualité, la consistance et le rendement des données.
  • Intégrer les données avec Power BI pour l'analyse de business.

Conocimientos

PySpark
Spark SQL
Power BI
Azure Data Factory
Azure Data Lake Storage
DevOps

Herramientas

Microsoft Fabric
Key Vault
Azure Gateway

Descripción del empleo

Buscas un nuevo reto donde desarrollar tu carrera y aprender nuevas tecnologías? Entonces sigue leyendo porque esto te puede interesar.

Scalian es una empresa de más de 6.000 personas con una dimensión internacional, con oficinas en Europa y América del Norte. Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial.

Buscamos un / a Data Engineer con experiencia en el ecosistema Azure y Spark, capaz de construir canalizaciones de datos robustas, eficientes y escalables. Formarás parte de un equipo técnico de alto nivel, colaborando estrechamente en la creación de soluciones de datos modernas que habilitan el análisis y la toma de decisiones de negocio.

  • Diseñar e implementar canalizaciones de datos con PySpark y Microsoft Fabric .
  • Utilizar motores Veyra para transformaciones avanzadas : enriquecimiento, filtrado, armonización y normalización.
  • Garantizar la calidad, consistencia y rendimiento de los datos mediante buenas prácticas de particionado, uso de metadatos y modelado.
  • Participar en la construcción de capas Delta Lakehouse (Bronce, Plata, Oro).
  • Integrar los datos con Power BI para soportar casos de análisis de negocio.
  • Aplicar herramientas de metadatos, linaje y catalogación para asegurar el control de calidad de los datos.

Requisitos mínimos :

  • Experiencia con PySpark y Spark SQL .
  • Experiencia práctica con Microsoft Fabric , Azure Data Factory , Power BI y Azure Data Lake Storage .
  • Familiaridad con herramientas de DevOps y procedimientos de seguridad en Azure ( Key Vault , redes virtuales, Azure Gateway).
  • Inglés fluido (nivel profesional).

Qué tendrás con nosotros?

100% Teletrabajo

Crear una alerta de empleo para esta búsqueda
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.