Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Jumpit S.r.l

Remoto

EUR 40.000 - 60.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda tecnologica innovativa cerca un Data Engineer con esperienza nella progettazione e gestione di pipeline dati scalabili. Il candidato ideale avrà una solida conoscenza dei processi ETL/ELT e competenze in Apache Spark, Scala e Python. Il ruolo offre l'opportunità di inserimento immediato in un ambiente dinamico e orientato al cloud. È richiesto un forte approccio tecnico e disponibilità al lavoro in modalità remota.

Servizi

Corsi di formazione continuativa
Ambiente giovane e dinamico

Competenze

  • Solid experience in designing, developing and managing scalable data pipelines.
  • Deep knowledge of ETL / ELT processes and data ingestion systems.
  • Strong technical skills in distributed computing environments.

Mansioni

  • Design, develop and maintain reliable, scalable, and automated data processing pipelines.
  • Perform data ingestion, cleaning, transformation and integration from heterogeneous sources.
  • Optimize ETL / ELT processes for large data volumes.

Conoscenze

Apache Spark
Scala
Python
Data ingestion
Data transformation
SQL
Docker
Kubernetes
ETL / ELT
Descrizione del lavoro
Unisciti a JUMPIT

Innovazione, Persone e Crescita nel Cuore della Digital Transformation. JUMPIT, nata nel 2019 come startup innovativa, ha l’obiettivo di guidare la trasformazione digitale di grandi aziende e istituti bancari. Fin dall’inizio abbiamo collaborato con le principali multinazionali ICT, offrendo soluzioni tecnologiche su misura e un servizio di eccellenza, sempre da partner, mai da semplici fornitori. La nostra mission è chiara: non solo abbracciare il cambiamento tecnologico, ma guidarlo, creando soluzioni all’avanguardia che plasmino il futuro digitale. In JUMPIT, crediamo fortemente nel mettere le persone al centro di ogni nostra iniziativa. Le persone sono il cuore pulsante della nostra azienda; il loro benessere, la loro crescita e il loro sviluppo sono la nostra priorità. Ci impegniamo a condividere le strategie aziendali con trasparenza e a fornire formazione e supporto a ogni livello, garantendo che ogni membro del team sia equipaggiato per eccellere e innovare.

Posizione Aperta: Data Engineer   Sede: Remoto

Descrizione del Ruolo

Stiamo cercando un Data Engineer con una solida esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili e performanti. La risorsa sarà inserita in un team dedicato alla realizzazione di soluzioni di data processing e data integration in ambienti cloud‑native, contribuendo all’evoluzione dell’ecosistema dati aziendale e all’implementazione di architetture moderne orientate al calcolo distribuito. Il candidato ideale ha una forte attitudine tecnica e una conoscenza approfondita dei processi ETL / ELT, dei sistemi di data ingestion e data transformation, oltre a una solida esperienza con strumenti come Apache Spark, Scala, Python e framework per l’elaborazione distribuita.

Cosa offriamo

Inserimento immediato in un Talent HUB giovane e dinamico. JUMPIT LEARNING HUB con corsi di aggiornamento e formazione. Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Corsi di formazione continuativa, ambiente giovane, dinamico e innovativo.

Principali responsabilità
  • Progettare, sviluppare e mantenere pipeline di elaborazione dati affidabili, scalabili e automatizzate.
  • Effettuare operazioni di data ingestion, cleaning, transformation e integration da sorgenti eterogenee.
  • Sviluppare processi ETL / ELT ottimizzati per grandi volumi di dati.
  • Utilizzare Apache Spark (3.x) e Scala (2.12) per il calcolo distribuito e l’elaborazione batch / streaming.
  • Integrare e orchestrare processi cloud‑native in ambienti containerizzati basati su Docker e Kubernetes (K8s).
  • Garantire la qualità, la consistenza e la sicurezza dei dati all’interno delle pipeline.
  • Collaborare con Data Scientist, Analyst e team di sviluppo per l’implementazione di soluzioni analitiche e di machine learning.
  • Monitorare e ottimizzare le prestazioni delle pipeline e dei flussi di dati in produzione.
Competenze tecniche
  • Conoscenza avanzata dei database relazionali e del linguaggio SQL.
  • Esperienza con Spark 3.x, Scala 2.12, Python, PySpark o Flink per la gestione di grandi moli di dati.
  • Familiarità con metodologie di data ingestion, data transformation e data pipeline orchestration.
  • Esperienza con Docker per la containerizzazione dei processi.
  • Conoscenza dei principi di orchestrazione in ambienti Kubernetes (K8s).
  • Approccio cloud‑native nello sviluppo e nella gestione delle soluzioni dati.

Si autorizza al trattamento dei dati personali ai sensi del D. Lgs. 196/2003.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.