Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Cloud & Data Engineer_Azure-PySpark

PROXIMA GROUP

Remoto

EUR 30.000 - 50.000

Tempo pieno

2 giorni fa
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda innovativa di consulenza IT cerca un professionista per lo sviluppo di soluzioni dati e cloud. Il candidato ideale avrà ottima padronanza di Python e PySpark, oltre a robuste competenze nei servizi Azure. Responsabilità includeranno progettazione di pipeline dati e implementazione di soluzioni cloud. Offriamo un salario competitivo, buoni pasto e assicurazione sanitaria, insieme a opportunità di crescita professionale nel nostro ambiente di lavoro stimolante.

Servizi

R.A.L. commisurata alla seniority
Buon pasto
Assicurazione sanitaria

Competenze

  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui principali servizi Azure.

Mansioni

  • Contribuire alla progettazione e allo sviluppo di soluzioni dati e cloud.
  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati.

Conoscenze

Python
PySpark
Azure Data Lake
Azure Functions
Azure Data Factory
Git
REST API
SQL

Strumenti

Docker
Azure DevOps
Github Actions
Descrizione del lavoro

Proxima è un gruppo di aziende con skill funzionali e tecnologiche innovative, che mettono a fattor comune la propria esperienza in un’offerta congiunta di sviluppo di soluzioni all’interno della nostra Software Factory. Offriamo consulenza e servizi di Application Management e Quality Assurance.

Dove e come?

Italia - Full Remote

Di cosa ti occuperai?
  • Il/la professionista opererà in contesti consulenziali, contribuendo alla progettazione e allo sviluppo di soluzioni dati e cloud in scenari complessi.
  • Il ruolo prevede l'esecuzione di attività che spaziano dall’ingegneria del dato e sviluppo software, fino al supporto per la progettazione di infrastrutture cloud su Azure.
  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati (tra cui Azure Data Lake, Azure Functions, Azure Data Factory, ecc.).
  • Sviluppare componenti software e servizi backend per applicazioni data-driven.
  • Curare la qualità del codice, il versioning, il testing e l’automazione dei flussi.
  • Collaborare con stakeholder tecnici e di business nella definizione dei requisiti e nel rilascio di soluzioni affidabili.
  • Gestire attività progettuali in autonomia, mantenendo precisione e attenzione al dettaglio.
  • Supportare l’analisi, il troubleshooting e l’ottimizzazione delle performance dei sistemi.
Sei il candidato ideale se…

Dimostri autonomia nella gestione e nell’esecuzione delle attività. Lavori con precisione, attenzione ai dettagli e hai un forte orientamento alla qualità.

Cosa offriamo?
  • R.A.L. commisurata alla seniority;
  • Buon pasto (anche in modalità full remote);
  • Assicurazione sanitaria con copertura integrativa.

I nostri benefit:

  • Percorsi di carriera: Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi.
  • Formazione professionalizzante: Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT.
  • Sconti e promozioni riservate: Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.
Competenze richieste:
  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
  • Familiarità con architetture dati cloud‑native, pattern ETL / ELT e workflow orchestration.
  • Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
  • Competenze in progettazione e sviluppo API REST.
  • Conoscenza di SQL e database relazionali.
Nice to have…
  • Esperienza in Azure Databricks.
  • Certificazioni Azure.
  • Competenze in containerizzazione (Docker) e pipeline CI / CD (Azure DevOps, Github Actions).
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.