¡Activa las notificaciones laborales por email!

Engineer Databricks, Azure analyses services andPowerBI

Kapres Technology, S.L.

España

A distancia

EUR 40.000 - 60.000

Jornada completa

Ayer
Sé de los primeros/as/es en solicitar esta vacante

Descripción de la vacante

Una empresa innovadora en tecnología de datos busca un Engineer Databricks para trabajar en la construcción de pipelines de datos y dashboards en Power BI. Este puesto ofrece la oportunidad de trabajar 100% remoto y requiere al menos 2 años de experiencia en herramientas como Databricks y Azure Analysis Services. Los interesados en la ingeniería de datos son bienvenidos a postularse.

Formación

  • Experiencia mínima de 2 años en herramientas específicas como Databricks y Power BI.
  • Experiencia práctica en la implementación de soluciones de datos.
  • Capacidad para trabajar en equipo y coordinar con grupos de terceros.

Responsabilidades

  • Construir pipelines de datos usando PySpark.
  • Desarrollar cubos tabulares con Analysis Services.
  • Crear dashboards utilizando Power BI.

Conocimientos

PySpark
Databricks
Power BI
Azure Analysis Services
DAX

Herramientas

Azure Data Lake
Azure DevOps
Descripción del empleo
Overview

Para un importante cliente del sector seguros, buscamos Engineer Databricks, Azure analyses services and PowerBI, el trabajo es 100% remoto, Ofrecemos contrato indefinido con nosotros.

1 / Context :

Monitoring Solutions product provides monitoring capabilities covering applications performance, LOG events and BAU KPIs.

Along client initiatives aiming to increase the quality of service within client, we are building several QoS dashboards, following industrial approach.

As a Data engineer, responsibilities will include constructing data pipelines using PySpark, developing tabular cubes with Analysis Services (DAX), and creating dashboards using Power BI.

2 / Services
  • Assessement of the needs to set up a list of functional and technical requirements
  • Supporting Coordination with third party teams (Data integration team & Datalake team)
  • Implementation of data ingestion and transformation
  • Implementation of specific calculations and filtering according to the requirements
  • Implementing security and access control measures
3 / Deliverables
  • Design of the technical solution covering the needs (Data model, Integration flow, Data mapping)
  • Build integration layer based on Azure datalake : DAX, PySpark, Databricks, Azure Analysis Services, Azure DevOps
  • PowerBI dashboards connected to Azure Cubes
  • Implementation of specific calculation
  • Years of expertise we're looking for : minimum 2 years
  • The tools needed or mandatory expertise : Databricks, Azure analyses services and PowerBI - have already hand-on expertise on these tools
  • Level of expertise on tools needed : open for all the levels (intermediate, advanced, expert)
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.