Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Jumpit S.r.l

Remoto

EUR 35.000 - 55.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda tecnologica in rapida crescita cerca un Data Engineer per progettare e gestire pipeline dati scalabili. Il candidato ideale conosce Apache Spark, Scala e Python, e ha esperienza in ETL/ELT. Offriamo un ambiente di lavoro giovane e dinamico, corsi di formazione continuativa e un impegno verso il benessere del team. Questa posizione è aperta a persone di tutte le età e nazionalità.

Servizi

Corsi di formazione
Ambiente giovane e dinamico

Competenze

  • Esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili.
  • Forte attitudine tecnica con conoscenza di ETL/ELT.
  • Esperienza con sistemi di data ingestion e data transformation.

Mansioni

  • Progettare e sviluppare pipeline di elaborazione dati.
  • Effettuare data ingestion, cleaning e transformation.
  • Utilizzare Spark e Scala per calcolo distribuito.

Conoscenze

Apache Spark
Scala
Python
ETL / ELT
SQL
Docker
Kubernetes

Strumenti

PySpark
Flink
Descrizione del lavoro
Unisciti a JUMPIT

Innovazione, Persone e Crescita nel Cuore della Digital Transformation. JUMPIT, nata nel 2019 come startup innovativa, ha l’obiettivo di guidare la trasformazione digitale di grandi aziende e istituti bancari. Fin dall’inizio abbiamo collaborato con le principali multinazionali ICT, offrendo soluzioni tecnologiche su misura e un servizio di eccellenza, sempre da partner, mai da semplici fornitori. La nostra mission è chiara: non solo abbracciare il cambiamento tecnologico, ma guidarlo, creando soluzioni all’avanguardia che plasmino il futuro digitale. In JUMPIT, crediamo fortemente nel mettere le persone al centro di ogni nostra iniziativa. Le persone sono il cuore pulsante della nostra azienda; il loro benessere, la loro crescita e il loro sviluppo sono la nostra priorità. Ci impegniamo a condividere le strategie aziendali con trasparenza e a fornire formazione e supporto a ogni livello, garantendo che ogni membro del team sia equipaggiato per eccellere e innovare.

Posizione Aperta: Data Engineer   Sede: Remoto

Descrizione del Ruolo

Stiamo cercando un Data Engineer con una solida esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili e performanti. La risorsa sarà inserita in un team dedicato alla realizzazione di soluzioni di data processing e data integration in ambienti cloud‑native, contribuendo all’evoluzione dell’ecosistema dati aziendale e all’implementazione di architetture moderne orientate al calcolo distribuito. Il candidato ideale ha una forte attitudine tecnica e una conoscenza approfondita dei processi ETL / ELT, dei sistemi di data ingestion e data transformation, oltre a una solida esperienza con strumenti come Apache Spark, Scala, Python e framework per l’elaborazione distribuita.

Cosa offriamo

Inserimento immediato in un Talent HUB giovane e dinamico. JUMPIT LEARNING HUB con corsi di aggiornamento e formazione. Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Corsi di formazione continuativa, ambiente giovane, dinamico e innovativo.

Principali responsabilità
  • Progettare, sviluppare e mantenere pipeline di elaborazione dati affidabili, scalabili e automatizzate.
  • Effettuare operazioni di data ingestion, cleaning, transformation e integration da sorgenti eterogenee.
  • Sviluppare processi ETL / ELT ottimizzati per grandi volumi di dati.
  • Utilizzare Apache Spark (3.x) e Scala (2.12) per il calcolo distribuito e l’elaborazione batch / streaming.
  • Integrare e orchestrare processi cloud‑native in ambienti containerizzati basati su Docker e Kubernetes (K8s).
  • Garantire la qualità, la consistenza e la sicurezza dei dati all’interno delle pipeline.
  • Collaborare con Data Scientist, Analyst e team di sviluppo per l’implementazione di soluzioni analitiche e di machine learning.
  • Monitorare e ottimizzare le prestazioni delle pipeline e dei flussi di dati in produzione.
Competenze tecniche
  • Conoscenza avanzata dei database relazionali e del linguaggio SQL.
  • Esperienza con Spark 3.x, Scala 2.12, Python, PySpark o Flink per la gestione di grandi moli di dati.
  • Familiarità con metodologie di data ingestion, data transformation e data pipeline orchestration.
  • Esperienza con Docker per la containerizzazione dei processi.
  • Conoscenza dei principi di orchestrazione in ambienti Kubernetes (K8s).
  • Approccio cloud‑native nello sviluppo e nella gestione delle soluzioni dati.

Si autorizza al trattamento dei dati personali ai sensi del D. Lgs. 196/2003.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.