Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Cloud & Data Engineer_Azure-PySpark

PROXIMA GROUP

Remoto

EUR 30.000 - 50.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda di consulenza informatica è alla ricerca di un professionista per sviluppare soluzioni dati e cloud. Il candidato ideale ha conoscenze di Python e PySpark, e solida esperienza con i servizi Azure come Data Lake e Functions. È richiesta autonomia nella gestione dei progetti e attenzione ai dettagli. L'azienda offre una retribuzione commisurata alla seniority, buoni pasto e assicurazione sanitaria. Opportunità di crescita professionale e formazione sono incluse.

Servizi

Buon pasto
Assicurazione sanitaria
Percorsi di carriera
Formazione professionalizzante
Sconti e promozioni riservate

Competenze

  • Autonomia nella gestione e nell'esecuzione delle attività.
  • Forte orientamento alla qualità e attenzione ai dettagli.

Mansioni

  • Contribuire alla progettazione e allo sviluppo di soluzioni dati e cloud.
  • Implementare soluzioni cloud su Azure.
  • Sviluppare pipeline dati scalabili in Python e PySpark.
  • Curare la qualità del codice e l'automazione dei flussi.
  • Gestire attività progettuali in autonomia.

Conoscenze

Python per sviluppo applicativo e data engineering
PySpark
Servizi Azure (Data Lake, Functions, Data Factory)
Architetture dati cloud-native
Versionamento (Git)
Progettazione e sviluppo API REST
SQL e database relazionali

Strumenti

Docker
Azure DevOps
Github Actions
Descrizione del lavoro

Proxima è un gruppo di aziende con skill funzionali e tecnologiche innovative, che mettono a fattor comune la propria esperienza in un’offerta congiunta di sviluppo di soluzioni all’interno della nostra Software Factory. Offriamo consulenza e servizi di Application Management e Quality Assurance.

Dove e come?

Italia - Full Remote

Di cosa ti occuperai?
  • Il/la professionista opererà in contesti consulenziali, contribuendo alla progettazione e allo sviluppo di soluzioni dati e cloud in scenari complessi.
  • Il ruolo prevede l'esecuzione di attività che spaziano dall’ingegneria del dato e sviluppo software, fino al supporto per la progettazione di infrastrutture cloud su Azure.
  • Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
  • Implementare soluzioni cloud su Azure orientate ai dati (tra cui Azure Data Lake, Azure Functions, Azure Data Factory, ecc.).
  • Sviluppare componenti software e servizi backend per applicazioni data-driven.
  • Curare la qualità del codice, il versioning, il testing e l’automazione dei flussi.
  • Collaborare con stakeholder tecnici e di business nella definizione dei requisiti e nel rilascio di soluzioni affidabili.
  • Gestire attività progettuali in autonomia, mantenendo precisione e attenzione al dettaglio.
  • Supportare l’analisi, il troubleshooting e l’ottimizzazione delle performance dei sistemi.
Sei il candidato ideale se…

Dimostri autonomia nella gestione e nell’esecuzione delle attività. Lavori con precisione, attenzione ai dettagli e hai un forte orientamento alla qualità.

Cosa offriamo?
  • R.A.L. commisurata alla seniority;
  • Buon pasto (anche in modalità full remote);
  • Assicurazione sanitaria con copertura integrativa.

I nostri benefit:

  • Percorsi di carriera: Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi.
  • Formazione professionalizzante: Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT.
  • Sconti e promozioni riservate: Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.
Competenze richieste:
  • Ottima conoscenza di Python per sviluppo applicativo e data engineering.
  • Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
  • Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
  • Familiarità con architetture dati cloud‑native, pattern ETL / ELT e workflow orchestration.
  • Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
  • Competenze in progettazione e sviluppo API REST.
  • Conoscenza di SQL e database relazionali.
Nice to have…
  • Esperienza in Azure Databricks.
  • Certificazioni Azure.
  • Competenze in containerizzazione (Docker) e pipeline CI / CD (Azure DevOps, Github Actions).
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.