Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Engineer Databricks, Azure analyses services and PowerBI

Kapres Technology, S.L.

A distancia

EUR 40.000 - 60.000

Jornada completa

Hoy
Sé de los primeros/as/es en solicitar esta vacante

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una empresa del sector tecnológico busca un Engineer Databricks para trabajo 100% remoto. El candidato será responsable de construir tuberías de datos con PySpark, desarrollar tableros en Power BI y trabajar con Azure Analysis Services. Se requiere un mínimo de 2 años de experiencia en herramientas como Databricks y Power BI. Se ofrece contrato indefinido y la posibilidad de trabajar a distancia.

Formación

  • Experiencia mínima de 2 años en funciones de ingeniería de datos.
  • Experiencia práctica con Databricks y Power BI.
  • Capacidad para construir tuberías de datos con PySpark.

Responsabilidades

  • Construir tuberías de datos utilizando PySpark.
  • Desarrollar cubos tabulares con Azure Analysis Services.
  • Crear tableros de Power BI conectados a Azure.

Conocimientos

PySpark
Power BI
Databricks
Azure Analysis Services
Data ingestion

Herramientas

Azure DevOps
Descripción del empleo

Para un importante cliente del sector seguros, buscamos Engineer Databricks, Azure analyses services and PowerBI , el trabajo es 100% remoto , Ofrecemos contrato indefinido con nosotros.

1 / Context :

Monitoring Solutions product provides monitoring capabilities covering applications performance, LOG events and BAU KPIs.

Along client initiatives aiming to increase the quality of service within client, we are building several QoS dashboards, following industrial approach.

As a Data engineer, responsibilities will include constructing data pipelines using PySpark, developing tabular cubes with Analysis Services (DAX), and creating dashboards using Power BI.

2 / Services
  • Assessement of the needs to set up a list of functional and technical requirements
  • Supporting Coordination with third party teams (Data integration team & Datalake team)
  • Implementation of data ingestion and transformation
  • Implementation of specific calculations and filtering according to the requirements
  • Implementing security and access control measures
3 / Deliverables
  • Design of the technical solution covering the needs (Data model, Integration flow, Data mapping)
  • Build integration layer based on Azure datalake : DAX, PySpark, Databricks, Azure Analysis Services, Azure DevOps
  • PowerBI dashboards connected to Azure Cubes
  • Implementation of specific calculation
  • Years of expertise we're looking for : minimum 2 years
  • The tools needed or mandatory expertise : Databricks, Azure analyses services and PowerBI - have already hand-on expertise on these tools
  • Level of expertise on tools needed : open for all the levels (intermediate, advanced, expert)
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.