Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Cloud & Data Engineer_Azure-PySpark

PROXIMA GROUP

Remoto

EUR 40.000 - 60.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un gruppo di aziende tecnologiche è alla ricerca di un professionista in data engineering per lavorare in remoto. Il candidato ideale deve avere esperienza con Python e PySpark, nonché competenze solide su Azure. La posizione prevede lo sviluppo di pipeline dati e l'implementazione di soluzioni cloud. Offriamo un pacchetto retributivo competitivo commisurato all'esperienza e benefici come assicurazione sanitaria e formazione professionale.

Servizi

R.A.L. commisurata alla seniority
Buon pasto
Assicurazione sanitaria con copertura integrativa
Percorsi di carriera
Formazione professionalizzante
Sconti e promozioni riservate

Competenze

  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui servizi Azure come Data Lake e Functions.
  • Familiarità con architetture dati cloud‑native e workflow orchestration.

Mansioni

  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati.
  • Sviluppare componenti software e servizi backend per applicazioni data-driven.
  • Gestire attività progettuali in autonomia con attenzione al dettaglio.

Conoscenze

Python
PySpark
Azure Data Lake
Azure Functions
Azure Data Factory
Git
API REST
SQL

Strumenti

Docker
Azure DevOps
Descrizione del lavoro

Proxima è un gruppo di aziende con skill funzionali e tecnologiche innovative, che mettono a fattor comune la propria esperienza in un’offerta congiunta di sviluppo di soluzioni all’interno della nostra Software Factory. Offriamo consulenza e servizi di Application Management e Quality Assurance.

Dove e come?

Italia - Full Remote

Di cosa ti occuperai?
  • Il/la professionista opererà in contesti consulenziali, contribuendo alla progettazione e allo sviluppo di soluzioni dati e cloud in scenari complessi.
  • Il ruolo prevede l'esecuzione di attività che spaziano dall’ingegneria del dato e sviluppo software, fino al supporto per la progettazione di infrastrutture cloud su Azure.
  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati (tra cui Azure Data Lake, Azure Functions, Azure Data Factory, ecc.).
  • Sviluppare componenti software e servizi backend per applicazioni data-driven.
  • Curare la qualità del codice, il versioning, il testing e l’automazione dei flussi.
  • Collaborare con stakeholder tecnici e di business nella definizione dei requisiti e nel rilascio di soluzioni affidabili.
  • Gestire attività progettuali in autonomia, mantenendo precisione e attenzione al dettaglio.
  • Supportare l’analisi, il troubleshooting e l’ottimizzazione delle performance dei sistemi.
Sei il candidato ideale se…

Dimostri autonomia nella gestione e nell’esecuzione delle attività. Lavori con precisione, attenzione ai dettagli e hai un forte orientamento alla qualità.

Cosa offriamo?
  • R.A.L. commisurata alla seniority;
  • Buon pasto (anche in modalità full remote);
  • Assicurazione sanitaria con copertura integrativa.

I nostri benefit:

  • Percorsi di carriera: Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi.
  • Formazione professionalizzante: Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT.
  • Sconti e promozioni riservate: Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.
Competenze richieste:
  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
  • Familiarità con architetture dati cloud‑native, pattern ETL / ELT e workflow orchestration.
  • Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
  • Competenze in progettazione e sviluppo API REST.
  • Conoscenza di SQL e database relazionali.
Nice to have…
  • Esperienza in Azure Databricks.
  • Certificazioni Azure.
  • Competenze in containerizzazione (Docker) e pipeline CI / CD (Azure DevOps, Github Actions).
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.