Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Big data engineer

Lenis

Torino

Remoto

EUR 30.000 - 36.000

Tempo pieno

2 giorni fa
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza IT è in cerca di un Big Data Engineer Middle con esperienza nella Google Cloud Platform. La posizione è full remote e richiede competenze nel deployment di cluster per data exploration e nella gestione di grandi dataset. Offriamo un contratto a tempo indeterminato CCNL Metalmeccanici con una RAL di riferimento tra 30 e 36K. Si invita a inviare un curriculum dettagliato al fine di partecipare alla selezione.

Competenze

  • Competenze in infrastrutture cloud con esperienza in Google Cloud Platform.
  • Esperienze nella gestione di workload Big Data Analytics.
  • Capacità di progettare pipeline dati scalabili e automatizzate.

Conoscenze

Esperienza nel deployment e nella gestione di cluster
Utilizzo di PySpark
Utilizzo di Dask
Utilizzo di Dataproc
Gestione di dataset di grandi dimensioni
Conoscenza di formati Parquet e BigQuery
Progettazione di pipeline dati
Utilizzo di Dataflow
Utilizzo di Cloud Composer
Utilizzo di Pub/Sub
Descrizione del lavoro

Posizione : Big data Engineer

Sede : full remote

Siamo alla ricerca di un Big Data Engineer Middle con comprovata esperienza in ambito Google Cloud Platform (GCP) .

Lenis Srl è una società di Consulenza Informatic a e Sviluppo Software che supporta lo sviluppo dei propri clienti nelle aree dell’innovazione.

Requisiti principali
1. Competenze su infrastrutture cloud
  • Esperienza nel deployment e nella gestione di cluster per attività di data exploration.
  • Utilizzo di strumenti come PySpark , Dask e Dataproc per l’elaborazione distribuita dei dati.
2. Ottimizzazione di workload Big Data Analytics
  • Capacità di gestire dataset di grandi dimensioni archiviati su Cloud Storage (es. formati Parquet) e BigQuery .
  • Adattamento dei formati di storage e delle configurazioni per garantire performance ottimali a seconda del workload.
3. Sviluppo e manutenzione di pipeline dati
  • Esperienza nella progettazione, implementazione e gestione di pipeline dati scalabili e automatizzate .
  • Padronanza degli strumenti GCP come Dataflow , Cloud Composer e Pub / Sub per processi real-time e batch .
Cosa offriamo :
  • contratto a tempo indeterminato CCNL Metalmeccanici
  • RAL di riferimento 30-36K

La ricerca è rivolta ad entrambi i sessi ex L. 903 / 77. Inviare curriculum vitae dettagliato e consenso al trattamento dei dati personali. I candidati sono invitati a leggere l’informativa sulla privacy (art. 13 D.Lgs. 196 / 2003).

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.