Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Dev world srl

Firenze

In loco

EUR 40.000 - 60.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una software house innovativa cerca un Data Engineer per sviluppare e mantenere pipeline di dati. Il candidato ideale ha esperienza in SQL, NoSQL, AWS e strumenti di data processing come pyspark. Offriamo un contesto di lavoro remoto, mentoring e progetti reali con tecnologie moderne.

Servizi

Collaborazione con P.I.
Mentoring e formazione continua
Ambiente dinamico e in crescita

Competenze

  • Esperienza consolidata nel ruolo di Data Engineer o ruolo simile.
  • Competenza nello sviluppo di soluzioni di data processing utilizzando pyspark e/o python.
  • Forte conoscenza di AWS e dei servizi rilevanti per i dati.
  • Familiarità con i concetti e l'implementazione di Data Lineage e Data Quality.

Mansioni

  • Progettare, sviluppare e mantenere architetture e pipeline di dati robusti.
  • Razionalizzare i modelli dati e garantire qualità delle informazioni.

Conoscenze

SQL
NoSQL
pyspark
Python
AWS
Data Lineage
Data Quality
Apache Airflow
Data Governance
Problem solving

Strumenti

AWS S3
AWS Glue
AWS EMR
AWS Athena
AWS Redshift
AWS Kinesis
Descrizione del lavoro

Devworld , software house innovativa e società di consulenza , è alla ricerca di un , Data Engineer che supporterà la progettazione, lo sviluppo e la manutenzione di architetture e pipeline di dati robuste e scalabili. Sarà un'attività cruciale per razionalizzare i modelli dati, garantire la consistenza e la qualità delle informazioni attraverso l'implementazione di sistemi di data lineage e data quality, e gestire tabelle su diversi sistemi, inclusi il data lake e l'infrastruttura AWS. Il contesto è quello di un'azienda cliente attiva nella gestione di pagamenti verso la pubblica amministrazione .

Requisiti richiesti
  • Esperienza consolidata nel ruolo di Data Engineer o ruolo simile.
  • Ottima padronanza di SQL e esperienza con sistemi di database NoSQL (es. DynamoDB).
  • Competenza nello sviluppo di soluzioni di data processing utilizzando pyspark e/o python.
  • Esperienza nella progettazione e implementazione di pipeline ETL/ELT e nella modellazione dei dati (Dimensional Modeling, Data Vault, etc.).
  • Forte conoscenza di AWS e dei servizi rilevanti per i dati (es. S3, Glue, EMR, Athena, Redshift, Kinesis / MSK).
  • Familiarità con i concetti e l'implementazione di Data Lineage e Data Quality.
  • Esperienza con strumenti di orchestrazione di workflow (es. Apache Airflow).
  • Buona conoscenza dell'architettura data-lake e dei principi di Data Governance.
  • Capacità di problem solving e approccio orientato alla scalabilità e all'affidabilità del sistema.
  • Conoscenza fluente della lingua Italiana.
Cosa offriamo
  • Attività in full remote.
  • Collaborazione con P.I.
  • Mentoring e formazione continua da parte di senior developer.
  • Progetti reali con tecnologie moderne.
  • Ambiente dinamico, aperto e in crescita.
  • Modalità di lavoro: remoto.

Si richiede l’invio di curricula rispondenti al profilo della posizione aperta, verranno presi in considerazione solo quelli effettivamente in possesso dei requisiti sopraindicati. Le persone interessate possono inviare la propria candidatura con autorizzazione ai sensi del dlgs. 196/2003. La ricerca rispetta il d.lgs. 198/2006 ed è aperta a candidati di qualsiasi orientamento o espressione di genere, orientamento sessuale, età, etnia e credo religioso. In ottemperanza al Regolamento UE n.16/679 (General Data Protection Regulation, o "GDPR"), Devworld.r.l. la informa che, in caso di contatto, i suoi dati personali saranno ricevuti ed archiviati, verranno da noi utilizzati esclusivamente per attività di Ricerca e Selezione del Personale e non saranno condivisi con nessun altro, tranne che con le Aziende che ci incaricano di svolgere delle ricerche. I Suoi dati saranno mantenuti nei nostri archivi per i tempi previsti dal Regolamento.

Competenze richieste aggiuntive
  • Azure pipeline AWS Data Lake
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.