Job Search and Career Advice Platform

¡Activa las notificaciones laborales por email!

Engineer Databricks, Azure analyses services and PowerBI

Kapres Technology, S.L.

Barcelona

A distancia

EUR 40.000 - 55.000

Jornada completa

Hace 10 días

Genera un currículum adaptado en cuestión de minutos

Consigue la entrevista y gana más. Más información

Descripción de la vacante

Una importante empresa del sector seguros busca un Ingeniero de Datos que trabaje 100% remoto. El candidato será responsable de construir tuberías de datos y crear dashboards en Power BI, con un mínimo de 2 años de experiencia en Databricks y Azure Analysis Services. Se ofrece un contrato indefinido y un ambiente de trabajo flexible.

Formación

  • Mínimo 2 años de experiencia como Data Engineer.
  • Experiencia práctica en Databricks, Azure Analysis Services y Power BI.

Responsabilidades

  • Construcción de tuberías de datos utilizando PySpark.
  • Desarrollo de cubos tabulares con Analysis Services (DAX).
  • Creación de dashboards utilizando Power BI.
  • Evaluación de requisitos funcionales y técnicos.

Conocimientos

Databricks
Azure Analysis Services
Power BI
PySpark
Descripción del empleo

Para un importante cliente del sector seguros, buscamos Engineer Databricks, Azure analyses services y PowerBI , el trabajo es 100% remoto , Ofrecemos contrato indefinido con nosotros.

1 / Context :

Monitoring Solutions product provides monitoring capabilities covering applications performance, LOG events and BAU KPIs.

Along client initiatives aiming to increase the quality of service within client, we are building several QoS dashboards, following industrial approach.

As a Data engineer, responsibilities will include constructing data pipelines using PySpark, developing tabular cubes with Analysis Services (DAX), and creating dashboards using Power BI.

2 / Services
  • Assessement of the needs to set up a list of functional and technical requirements
  • Supporting Coordination with third party teams (Data integration team & Datalake team)
  • Implementation of data ingestion and transformation
  • Implementation of specific calculations and filtering according to the requirements
  • Implementing security and access control measures
3 / Deliverables
  • Design of the technical solution covering the needs (Data model, Integration flow, Data mapping)
  • Build integration layer based on Azure datalake : DAX, PySpark, Databricks, Azure Analysis Services, Azure DevOps
  • PowerBI dashboards connected to Azure Cubes
  • Implementation of specific calculation
  • Years of expertise we're looking for : minimum 2 years
  • The tools needed or mandatory expertise : Databricks, Azure analyses services and PowerBI - have-on expertise on these tools
  • Level of expertise on tools needed : open for all the levels (intermediate, advanced, expert)
Consigue la evaluación confidencial y gratuita de tu currículum.
o arrastra un archivo en formato PDF, DOC, DOCX, ODT o PAGES de hasta 5 MB.