Job Search and Career Advice Platform

Data Engineer - Freelance

Sii tra i primi a mandare la candidatura.
Solo per membri registrati
Italia
Remoto
EUR 30.000 - 50.000
Sii tra i primi a mandare la candidatura.
Ieri
Descrizione del lavoro

Siamo alla ricerca di un Data Engineer Freelance che supporterà la progettazione, lo sviluppo e la manutenzione di architetture e pipeline di dati robuste e scalabili per il prodotto di un'azienda cliente attiva nella gestione di pagamenti verso la pubblica amministrazione.

Sarà cruciale per razionalizzare i modelli dati, garantire la consistenza e la qualità delle informazioni attraverso l'implementazione di sistemi di data lineage e data quality, e gestire tabelle su diversi sistemi, inclusi il data lake e l'infrastruttura AWS.

Responsabilità

  • Progettare e sviluppare pipeline di data ingestion e trasformazione per integrare dati provenienti da diverse fonti nel data lake.
  • Collaborare con i Data Analyst e i team di sviluppo per definire e implementare modelli dati consistenti e razionalizzati a supporto delle metriche e delle funzionalità core del prodotto.
  • Gestire e mantenere tabelle e schemi dati su piattaforme diverse (es. sistemi basati su AWS come S3, DynamoDB, e Data Lake / Warehouse).
  • Implementare sistemi di Data Lineage per tracciare il flusso dei dati e garantire la loro provenienza e trasformazione.
  • Sviluppare e applicare controlli di Data Quality automatizzati per assicurare l'affidabilità dei dati utilizzati per l'analisi e il monitoraggio.
  • Ottimizzare le performance delle query e delle pipeline di elaborazione dati.
  • Lavorare a stretto contatto con i team DevOps per il deploy e l'orchestrazione delle pipeline dati.

Requisiti richiesti

  • Esperienza consolidata nel ruolo di Data Engineer o ruolo simile.
  • Ottima padronanza di SQL e esperienza con sistemi di database NoSQL (es. DynamoDB).
  • Competenza nello sviluppo di soluzioni di data processing utilizzando pyspark e / o python.
  • Esperienza nella progettazione e implementazione di pipeline ETL / ELT e nella modellazione dei dati (Dimensional Modeling, Data Vault, etc.).
  • Forte conoscenza di AWS e dei servizi rilevanti per i dati (es. S3, Glue, EMR, Athena, Redshift, Kinesis / MSK).
  • Familiarità con i concetti e l'implementazione di Data Lineage e Data Quality.
  • Esperienza con strumenti di orchestrazione di workflow (es. Apache Airflow).
  • Buona conoscenza dell'architettura data-lake e dei principi di Data Governance.
  • Capacità di problem solving e approccio orientato alla scalabilità e all'affidabilità del sistema.
  • Conoscenza fluente della lingua Italiana.

Seniority & Modalità di lavoro

4+ anni di esperienza.

Modalità di lavoro: remoto.

Durata e Inizio

Inizio: Dicembre 2025 / Gennaio 2026.

Durata ingaggio: 6 mesi con possibile estensione.

Processo di selezione

Il nostro processo di selezione prevede 2 fasi: Colloquio conoscitivo con il nostro team HR e Colloquio con il cliente e il team di lavoro.

Come inviare la tua candidatura

Via LinkedIn o inviando il tuo cv all’indirizzo.