Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

DropaCode

Remoto

EUR 37.000 - 40.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'importante azienda nel settore tecnologico cerca un Data Engineer per lavorare su progetti di integrazione e migrazione dati. Il candidato ideale ha 2-4 anni di esperienza e conoscenza di strumenti ETL come Azure Data Factory e Databricks. Inoltre, sono gradite competenze in SQL e Python. Questo ruolo permette di crescere in un ambiente cloud-oriented, con pipeline ETL da sviluppare e mantenere. Viene offerto un contratto a tempo indeterminato con retribuzione adeguata all'esperienza.

Competenze

  • 2–4 anni di esperienza in progetti di integrazione / migrazione dati.
  • Ottima conoscenza di database relazionali (Oracle, SQL Server, PostgreSQL).
  • Familiarità con ambienti Azure o altri cloud (AWS / GCP).

Mansioni

  • Sviluppare e mantenere pipeline ETL / ELT su Azure.
  • Eseguire data transformation e modellazione dati.
  • Collaborare per garantire coerenza e qualità dei dati.

Conoscenze

SQL avanzato
Python per scripting e automazioni dati
Problem solving
Collaborazione in team

Strumenti

Azure Data Factory
Databricks
SSIS
Airflow
Descrizione del lavoro

Data Engineer

Dettagli della posizione

Cliente: Importante gruppo operante nel settore tecnologico

Sede: Roma - Modalità full Remote

Durata: Contratto a tempo indeterminato

Retribuzione: 37-40k RAL , commisurata all’esperienza

Descrizione del ruolo

Cerchiamo un Data Engineer operativo con 2–4 anni di esperienza in progetti di integrazione e trasformazione dati, che entri in un team consolidato su un progetto strategico di migrazione su Azure .

La risorsa lavorerà su pipeline ETL / ELT , modellazione dati e qualità del dato , con il supporto di figure senior e l’opportunità di crescere rapidamente in un contesto cloud-oriented .

La conoscenza di Microsoft Fabric , pur non essendo un requisito indispensabile, rappresenta un importante valore aggiunto .

Responsabilità principali
  • Sviluppare e mantenere pipeline ETL / ELT su Azure (Data Factory, Databricks o equivalenti)
  • Eseguire data transformation e modellazione dati ( schemi star / snowflake )
  • Collaborare con il team per garantire coerenza e qualità dei dati
  • Partecipare ad analisi tecniche e alla definizione di architetture dati (Azure / on-premise)
  • Supportare il troubleshooting sui processi di integrazione
Competenze richieste
  • 2–4 anni di esperienza in progetti di integrazione / migrazione dati
  • SQL avanzato e ottima conoscenza di database relazionali (Oracle, SQL Server, PostgreSQL)
  • Esperienza pratica con strumenti ETL / ELT (Azure Data Factory, Databricks, SSIS o simili)
  • Python per scripting e automazioni dati
  • Familiarità con ambienti Azure (o altri cloud : AWS / GCP)
Nice to have
  • Conoscenza di Microsoft Fabric
  • Esperienza con Pega o altre piattaforme BPM / CRM
  • Nozioni di data governance e data quality
  • Strumenti di orchestrazione (Airflow, Control-M)
Soft skills
  • Approccio pratico e orientato al problem solving
  • Capacità di lavorare in team e autonomia sui task operativi
  • Volontà di crescere in un contesto strutturato
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.