Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Jumpit S.r.l

Remoto

EUR 40.000 - 60.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda di trasformazione digitale cerca un Data Engineer da inserire in un team giovane e dinamico. La figura si occuperà di progettare e gestire pipeline dati scalabili e performanti, utilizzando tecnologie come Apache Spark, Scala e Python. È richiesta una solida esperienza in processi ETL/ELT e cloud-native development. Offriamo corsi di formazione e un ambiente di lavoro innovativo e collaborativo.

Servizi

Corsi di formazione continua
Ambiente di lavoro dinamico

Competenze

  • Esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili.
  • Conoscenza approfondita dei processi ETL / ELT.
  • Forte attitudine tecnica e capacità di innovazione.

Mansioni

  • Progettare e mantenere pipeline di elaborazione dati.
  • Effettuare data ingestion e trasformazione da sorgenti eterogenee.
  • Collaborare con Data Scientist e team di sviluppo.

Conoscenze

Apache Spark
Scala
Python
Data ingestion
ETL/ELT
Cloud-native development

Strumenti

Docker
Kubernetes
Descrizione del lavoro
Unisciti a JUMPIT

Innovazione, Persone e Crescita nel Cuore della Digital Transformation. JUMPIT, nata nel 2019 come startup innovativa, ha l’obiettivo di guidare la trasformazione digitale di grandi aziende e istituti bancari. Fin dall’inizio abbiamo collaborato con le principali multinazionali ICT, offrendo soluzioni tecnologiche su misura e un servizio di eccellenza, sempre da partner, mai da semplici fornitori. La nostra mission è chiara: non solo abbracciare il cambiamento tecnologico, ma guidarlo, creando soluzioni all’avanguardia che plasmino il futuro digitale. In JUMPIT, crediamo fortemente nel mettere le persone al centro di ogni nostra iniziativa. Le persone sono il cuore pulsante della nostra azienda; il loro benessere, la loro crescita e il loro sviluppo sono la nostra priorità. Ci impegniamo a condividere le strategie aziendali con trasparenza e a fornire formazione e supporto a ogni livello, garantendo che ogni membro del team sia equipaggiato per eccellere e innovare.

Posizione Aperta: Data Engineer   Sede: Remoto

Descrizione del Ruolo

Stiamo cercando un Data Engineer con una solida esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili e performanti. La risorsa sarà inserita in un team dedicato alla realizzazione di soluzioni di data processing e data integration in ambienti cloud‑native, contribuendo all’evoluzione dell’ecosistema dati aziendale e all’implementazione di architetture moderne orientate al calcolo distribuito. Il candidato ideale ha una forte attitudine tecnica e una conoscenza approfondita dei processi ETL / ELT, dei sistemi di data ingestion e data transformation, oltre a una solida esperienza con strumenti come Apache Spark, Scala, Python e framework per l’elaborazione distribuita.

Cosa offriamo

Inserimento immediato in un Talent HUB giovane e dinamico. JUMPIT LEARNING HUB con corsi di aggiornamento e formazione. Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Corsi di formazione continuativa, ambiente giovane, dinamico e innovativo.

Principali responsabilità
  • Progettare, sviluppare e mantenere pipeline di elaborazione dati affidabili, scalabili e automatizzate.
  • Effettuare operazioni di data ingestion, cleaning, transformation e integration da sorgenti eterogenee.
  • Sviluppare processi ETL / ELT ottimizzati per grandi volumi di dati.
  • Utilizzare Apache Spark (3.x) e Scala (2.12) per il calcolo distribuito e l’elaborazione batch / streaming.
  • Integrare e orchestrare processi cloud‑native in ambienti containerizzati basati su Docker e Kubernetes (K8s).
  • Garantire la qualità, la consistenza e la sicurezza dei dati all’interno delle pipeline.
  • Collaborare con Data Scientist, Analyst e team di sviluppo per l’implementazione di soluzioni analitiche e di machine learning.
  • Monitorare e ottimizzare le prestazioni delle pipeline e dei flussi di dati in produzione.
Competenze tecniche
  • Conoscenza avanzata dei database relazionali e del linguaggio SQL.
  • Esperienza con Spark 3.x, Scala 2.12, Python, PySpark o Flink per la gestione di grandi moli di dati.
  • Familiarità con metodologie di data ingestion, data transformation e data pipeline orchestration.
  • Esperienza con Docker per la containerizzazione dei processi.
  • Conoscenza dei principi di orchestrazione in ambienti Kubernetes (K8s).
  • Approccio cloud‑native nello sviluppo e nella gestione delle soluzioni dati.

Si autorizza al trattamento dei dati personali ai sensi del D. Lgs. 196/2003.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.