¡Activa las notificaciones laborales por email!

Engineer Databricks, Azure analyses services andPowerBI

Kapres Technology, S.L.

Madrid

A distancia

EUR 40.000 - 60.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una importante empresa del sector tecnológico en Madrid busca un Engineer Databricks para construir pipelines de datos y desarrollar dashboards en Power BI. Se requiere experiencia mínima de 2 años y conocimientos en Databricks, Azure analyses services y Power BI. El trabajo es 100% remoto con contrato indefinido.

Formación

  • Mínimo 2 años de experiencia en herramientas de análisis de datos.
  • Experiencia en construcción de pipelines de datos usando PySpark.
  • Desarrollo de cubos tabulares con Azure Analysis Services (DAX).

Responsabilidades

  • Construir y mantener pipelines de datos.
  • Desarrollar dashboards utilizando Power BI.
  • Implementar medidas de seguridad y control de acceso.

Conocimientos

Databricks
Azure analyses services
Power BI
PySpark
Descripción del empleo

Para un importante cliente del sector seguros, buscamos Engineer Databricks, Azure analyses services y PowerBI , el trabajo es 100% remoto , Ofrecemos contrato indefinido con nosotros.

1 / Context :

Monitoring Solutions product provides monitoring capabilities covering applications performance, LOG events and BAU KPIs.

Along client initiatives aiming to increase the quality of service within client, we are building several QoS dashboards, following industrial approach.

As a Data engineer, responsibilities will include constructing data pipelines using PySpark, developing tabular cubes with Analysis Services (DAX), and creating dashboards using Power BI.

2 / Services
  • Assessement of the needs to set up a list of functional and technical requirements
  • Supporting Coordination with third party teams (Data integration team & Datalake team)
  • Implementation of data ingestion and transformation
  • Implementation of specific calculations and filtering according to the requirements
  • Implementing security and access control measures
3 / Deliverables
  • Design of the technical solution covering the needs (Data model, Integration flow, Data mapping)
  • Build integration layer based on Azure datalake : DAX, PySpark, Databricks, Azure Analysis Services, Azure DevOps
  • PowerBI dashboards connected to Azure Cubes
  • Implementation of specific calculation
  • Years of expertise we're looking for : minimum 2 years
  • The tools needed or mandatory expertise : Databricks, Azure analyses services and PowerBI - have-on expertise on these tools
  • Level of expertise on tools needed : open for all the levels (intermediate, advanced, expert)
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.