Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Azure Data Engineer

PROXIMA GROUP

Catania

Remoto

EUR 50.000 - 70.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un gruppo innovativo di aziende cerca un professionista per progettare e sviluppare pipeline dati scalabili in Python e PySpark. Il candidato ideale avrà esperienza con Azure Data Lake e PySpark. Offriamo un ambiente di lavoro full remote, compenso commisurato alla seniority, buoni pasto e assicurazione sanitaria. Vogliamo una persona autonoma e precisa, orientata alla qualità e alla crescita professionale.

Servizi

R.A.L. commisurata alla seniority
Buoni pasto
Assicurazione sanitaria con copertura integrativa

Competenze

  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui principali servizi Azure.
  • Familiarità con architetture dati cloud-native e workflow orchestration.
  • Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
  • Competenze in progettazione e sviluppo API REST.
  • Conoscenza di SQL e database relazionali.

Mansioni

  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati.
  • Sviluppare componenti software e servizi backend per applicazioni data-driven.
  • Curare la qualità del codice, il versioning e l’automazione dei flussi.
  • Collaborare con stakeholder nella definizione dei requisiti.
  • Gestire attività progettuali in autonomia.
  • Supportare l’analisi e l’ottimizzazione delle performance.

Conoscenze

Autonomia nella gestione delle attività
Precisione e attenzione ai dettagli
Orientamento alla qualità
Conoscenza di Python
Esperienza con PySpark
Familiarità con Azure Data Lake
Conoscenza dei sistemi di versionamento (Git)
Competenze in progettazione e sviluppo API REST
Conoscenza di SQL

Strumenti

Azure Data Factory
Docker
Azure DevOps
Descrizione del lavoro
Overview

Proxima è un gruppo di aziende con skill funzionali e tecnologiche innovative, che mettono a fattor comune la propria esperienza in un’offerta congiunta di sviluppo di soluzioni all’interno della nostra Software Factory. Offriamo consulenza e servizi di Application Management e Quality Assurance.

Location & Work Mode

Italia - Full Remote

Responsibilities
  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati (tra cui Azure Data Lake, Azure Functions, Azure Data Factory, ecc.).
  • Sviluppare componenti software e servizi backend per applicazioni data-driven.
  • Curare la qualità del codice, il versioning, il testing e l’automazione dei flussi.
  • Collaborare con stakeholder tecnici e di business nella definizione dei requisiti e nel rilascio di soluzioni affidabili.
  • Gestire attività progettuali in autonomia, mantenendo precisione e attenzione al dettaglio.
  • Supportare l’analisi, il troubleshooting e l’ottimizzazione delle performance dei sistemi.
Ideal Candidate
  • Dimostri autonomia nella gestione e nell'esecuzione delle attività.
  • Lavori con precisione, attenzione ai dettagli e hai un forte orientamento alla qualità.
Benefits

R.A.L. commisurata alla seniority;

Buoni pasto (anche in modalità full remote);

Assicurazione sanitaria con copertura integrativa.

Career Path

Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi.

Professional Training

Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico / pratico su tematiche in ambito ICT.

Discounts & Exclusive Promotions

Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.

Requirements
  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
  • Familiarità con architetture dati cloud-native, pattern ETL / ELT e workflow orchestration.
  • Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
  • Competenze in progettazione e sviluppo API REST.
  • Conoscenza di SQL e database relazionali.
Nice to have
  • Esperienza in Azure Databricks.
  • Certificazioni Azure.
  • Competenze in containerizzazione (Docker) e pipeline CI / CD (Azure DevOps, Github Actions).
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.