ANALISTA SOFTWARE OPEN DATA (BARI)

Sii tra i primi a mandare la candidatura.
Solo per membri registrati
Bari
EUR 30.000 - 45.000
Sii tra i primi a mandare la candidatura.
Ieri
Descrizione del lavoro

Per potenziare il team R&D dedicato al progetto EvoCity (sede di Bari) stiamo cercando un

  • Analista Dati Software / Open Data che unisca competenze tecniche, analitiche e progettuali per supportare

iniziative data-driven, con particolare attenzione ai dati pubblici e alla qualità informativa. La figura collaborerà con team tecnici e stakeholder di progetto per raccogliere, analizzare e valorizzare dati provenienti da fonti strutturate e open data, contribuendo alla documentazione, alla qualità del dato e alla costruzione di insight utili per il supporto alle decisioni.

Si valutano anche profili junior da inserire all'interno di un percorso di crescita.

Di cosa ti occuperai :

  • Eseguire analisi esplorative e statistiche su dataset eterogenei, con particolare attenzione ai dati pubblici e governativi;
  • Validare la qualità dei dati (completezza, consistenza, coerenza) e redigere documentazione tecnica accurata;
  • Sviluppare e mantenere pipeline di raccolta dati (web scraping, API) e integrazione da fonti open;
  • Collaborare alla definizione dei requisiti informativi con stakeholder tecnici e funzionali;
  • Identificare fonti dati rilevanti per gli obiettivi progettuali e mappare il flusso dati-requisiti;
  • Creare documentazione tecnica e architetturale : diagrammi, notebook, specifiche e schemi di integrazione;
  • Contribuire alla scrittura di report analitici, documenti strategici e comunicazioni orientate a stakeholder;
  • Presentare i risultati tramite visualizzazioni interattive, data storytelling e workshop informativi.

Cosa cerchiamo :

  • Capacità di analisi statistica, esplorativa e sintesi di insight da fonti dati complesse;
  • Familiarità e interesse per l’ecosistema Open Data : ISTAT, dati.gov.it, portali UE / API pubbliche;
  • Competenze lato data quality assessment : verifica coerenza, completezza e affidabilità dei dataset;
  • Conoscenze lato raccolta dati da API REST e tecniche di web scraping, linguaggi di analisi dati Python, R, SQL;
  • Strumenti per la redazione di documentazione tecnica : Markdown , Jupyter Notebooks , wiki collaborative;
  • Competenze di progetto : rilevazione requisiti (interviste, analisi gap), mappatura dati-requisiti, produzione documentazione architetturale (flussi dati, schemi d’integrazione), testing / validazione funzionale di soluzioni analitiche e dashboard, costruzione di Data Storytelling.

Requisiti preferenziali (plus) :

  • Esperienza con ambienti GCP, Spark, Apache Iceberg.
  • Conoscenza del ciclo di vita del software e concetti di DevOps.
  • Familiarità con modelli predittivi o tecniche di Machine Learning.

Cosa ti possiamo offrire :

  • Flessibilità oraria e un modello di lavoro ibrido (2 / 3gg / settimana da casa);
  • Formazione interna e acquisizione di certificazioni;
  • Buoni pasto e convenzioni aziendali.