Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

DATA ENGINEER - REMOTO

Dacomat srl

Firenze

Remoto

EUR 40.000 - 60.000

Tempo pieno

2 giorni fa
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda internazionale di servizi IT cerca un Data Engineer esperto per supportare l'automazione dei flussi di dati tra una piattaforma statistica e file Excel. Il candidato ideale ha una forte conoscenza di Python e PostgreSQL, oltre a capacità di lavorare in un ambiente collaborativo internazionale. Sono richieste competenze in pipeline ETL e Airflow, con project management e sviluppo di best practice ingegneristiche. Opportunità di lavoro completamente remota.

Competenze

  • Esperienza in sviluppo end-to-end di processi per export via API.
  • Conoscenza di buone pratiche ingegneristiche e componenti riusabili.
  • Eccellente padronanza della lingua inglese scritta e parlata.

Mansioni

  • Sviluppare pipeline per l'automazione di flussi di dati.
  • Collaborare con team internazionali per soddisfare requisiti variabili.
  • Applicare buone pratiche ingegneristiche nel lavoro di sviluppo.

Conoscenze

Python avanzato
Pipeline ETL
Workflow automatizzati
Database SQL
Conoscenza di Airflow
Best practice software

Strumenti

PostgreSQL
GCP
AWS
Descrizione del lavoro
DATA ENGINEER - REMOTO

stiamo ricercando un profilo Data Engineer con forte background di software engineering per supportare un nostro cliente internazionale. La risorsa dovrà occuparsi dell’automazione completa dei flussi di estrazione, trasformazione, validazione e reimportazione di dataset tra una piattaforma statistica proprietaria di grandi dimensioni e numerosi file Excel personalizzati provenienti da enti nazionali di diversi Paesi. L’intero progetto si svolge esclusivamente in lingua inglese (riunioni, documentazione, comunicazioni e colloqui). È quindi richiesta un’ottima padronanza scritta e parlata. Il contesto tecnico comprende: Database PostgreSQL molto esteso (miliardi di record); Un ambiente di orchestrazione simile ad Apache Airflow, nel quale le pipeline vanno progettate da zero; Workflow basati su Excel complessi e variabili, con template diversi per settore e Paese.

Responsabilità principali
  • Sviluppo end-to-end di processi per export via API, generazione di Excel personalizzati, validazione dei file restituiti e reimportazione dei dati;
  • Collaborazione con team tematici internazionali con requisiti eterogenei;
  • Sviluppo di componenti riusabili e applicazione di buone pratiche ingegneristiche.
Competenze richieste
  • Python avanzato (generatori, yield, decorator, funzioni di ordine superiore, args/kwargs, gestione file molto grandi);
  • Esperienza in pipeline ETL, workflow automatizzati e database SQL (preferibile PostgreSQL);
  • Conoscenza di Airflow o sistemi simili;
  • Best practice software (librerie riusabili, semantic versioning, unit / integration test, gestione branch / merge).
Nice to have
  • Conoscenza R;
  • Esperienza GCP / AWS.
Come candidarsi

Se vi interessa l'opportunità, inviateci un vostro CV all'indirizzo email indicato, specificando quanto segue: - Aspettativa economica in termini di netto mese o RAL - Eventuale disponibilità (preavviso) - Località lavorativa (città) e modalità (ibrido, sede o remoto). CANDIDATEVII!!!!

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.