Attiva gli avvisi di lavoro via e-mail!

Junior Data Engineer

REVO Insurance

Milano

In loco

EUR 30.000 - 40.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una compagnia di assicurazione a Milano cerca un Junior DataOps Engineer da inserire nel team di Data Engineering & Governance. Il candidato ideale ha una laurea in discipline STEM e competenze in SQL, Python e sistemi cloud. Il ruolo prevede il monitoraggio della Data Platform e supporto agli utenti nel loro utilizzo. Offriamo un ambiente di lavoro dinamico e innovativo.

Competenze

  • Utilizzo di basi dati relazionali e no-SQL.
  • Creazione e sviluppo di pipeline complesse preferibilmente on-cloud.
  • Lavorare in autonomia e collaborare con i team di AI e Data Science.

Mansioni

  • Monitorare e garantire l’efficienza dei processi su Data Platform.
  • Supportare gli utenti di Business nell’uso dei dati e nello sviluppo di script.

Conoscenze

Conoscenza di base del linguaggio SQL
Conoscenza dei fondamenti di database relazionali
Conoscenza del linguaggio Python
Conoscenza del sistema di versionamento Git
Conoscenza di base di Apache Spark
Esperienza di base nello sviluppo software in modalità DataOps o DevOps
Conoscenza di base di almeno un ambiente Cloud

Formazione

Laurea in discipline STEM

Strumenti

Databricks
AWS
Docker
Apache Airflow
Descrizione del lavoro
HR & Organization Director presso REVO Insurance

REVO è una compagnia di assicurazione con circa 250 dipendenti, quotata sul mercato Euronext STAR Milan e attiva nei rami danni con particolare riguardo ai rischi speciali (specialty lines) e ai rischi parametrici, con un focus prevalente sul comparto delle PMI. In REVO tecnologia, esperienza e capacità di vedere possibilità dove gli altri vedono solo limiti sono le chiavi per portare l’assicurazione tradizionale nel futuro.

Come Junior DataOps Engineer verrai inserito all’interno del team di Data Engineering & Governance, in stretta collaborazione con il team di Data Science/AI & Analytics e con tutte le aree di business di REVO. Siamo un team competente e ambizioso, ricco di energia e voglia di innovare, dedicato a progettare e sviluppare la Data Platform proprietaria di REVO: un data lake ibrido, fully on-cloud, che viene utilizzato quotidianamente per supportare e automatizzare i processi operativi chiave, mettendo a disposizione della Compagnia dati di qualità e dotati di un chiaro contesto di business lungo tutto il loro ciclo di vita.

Aree di responsabilità

  • Monitorare e garantire l’efficienza dei processi in esecuzione su Data Platform (Kubernetes + Databricks).
  • Partecipare alla progettazione del Data Model e della Data Platform.
  • Supportare gli utenti di Business nell’uso dei dati e nello sviluppo dei loro scripts.

Esperienze lavorative

Siamo alla ricerca di brillanti laureati discipline STEM con esperienza nell’uso di basi dati relazionali e no-SQL e nella progettazione, sviluppo ed esercizio di software back-end. Il candidato ideale possiede una discreta esperienza maturata nella creazione e sviluppo di pipeline complesse, preferibilmente on-cloud, ed è in grado di operare con elevata autonomia rapportandosi in maniera collaborativa sia all’interno del team di sviluppo, sia con i team di Artificial Intelligence, Data Science e Analytics.

  • Conoscenza di base del linguaggio SQL.
  • Conoscenza dei fondamenti di database relazionali: utilizzo, progettazione e sviluppo delle strutture dati (ad es. PostgreSQL, MS SQL, Oracle).
  • Conoscenza del linguaggio Python e delle principali librerie per ETL.
  • Conoscenza del sistema di versionamento Git.
  • Conoscenza di base di Apache Spark e dell’API PySpark.
  • Esperienza di base nello sviluppo software in modalità DataOps o DevOps e nello sviluppo di pipelines CI/CD.
  • Conoscenza di base di almeno un ambiente Cloud (ad es. AWS, GCP, Azure).

Preferenziali:

  • Conoscenza della piattaforma Databricks.
  • Esperienza nell’utilizzo di AWS Cloud e dei principali servizi annessi per lo sviluppo della pipeline dati (e.g. S3, Glue, Lambda, ECR, Athena, EC2).
  • Conoscenza di ambienti basati su tecnologia Docker.
  • Conoscenza di un linguaggio di sviluppo embedded su RDBMS (e.g. PL/SQL, PL/pgSQL).
  • esperienza nell’utilizzo di un sistema di orchestrazione di pipeline (ad es. Airflow, Prefect Cloud).
  • utilizzo di agenti AI per l’accelerazione dello sviluppo.

Caratteristiche personali

  • Spiccato spirito analitico.
  • Forte senso di responsabilità e capacità di organizzazione.
  • Approccio dinamico con elevata proattività, curiosità e apertura a nuovi approcci, tecnologie e strumenti.
  • Forte orientamento al risultato.
  • Ottime capacità comunicative e relazionali.
  • Ottima capacità di lavorare efficacemente in team.

Il presente annuncio si rivolge a candidati di entrambi i sessi ai sensi della legge (L.903/77 e D.Lgs n. 98/2006, art 27). L’interessato è invitato a inviare la propria candidatura rilasciando specifico consenso al trattamento dei dati personali, ai sensi della nuova Normativa Europea sulla Privacy, conforme agli artt. 13 e 14 del GDPR (Regolamento (UE), 27 aprile 2016, n. 2016/679).

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.