Attiva gli avvisi di lavoro via e-mail!

Data Engineer

Jumpit S.r.l

Milano

Remoto

EUR 35.000 - 55.000

Tempo pieno

Oggi
Candidati tra i primi

Descrizione del lavoro

Una startup innovativa nel settore IT cerca un Data Engineer per progettare e gestire pipeline dati scalabili. Il candidato ideale ha esperienza con Apache Spark, Scala e Python. È fondamentale la conoscenza di processi ETL/ELT e strumenti cloud-native. Si offre un'opportunità di inserimento in un ambiente dinamico e orientato alla crescita.

Servizi

Inserimento immediato in un Talent HUB giovane e dinamico
Corsi di aggiornamento e formazione

Competenze

  • Esperienza nella progettazione e gestione di pipeline di dati scalabili.
  • Conoscenza di strumenti di ETL/ELT e processi di data ingestion.
  • Capacità di collaborare con team multifunzionali.

Mansioni

  • Progettare e mantenere pipeline di elaborazione dati.
  • Effettuare operazioni di data ingestion e cleaning.
  • Sviluppare processi ETL/ELT per grandi volumi di dati.

Conoscenze

Apache Spark
Scala
Python
Data ingestion
Data transformation

Strumenti

Docker
Kubernetes
SQL
Descrizione del lavoro

Unisciti a JUMPIT : Innovazione, Persone e Crescita nel Cuore della Digital Transformation Jumpit, nata nel 2019 come startup innovativa con l’obiettivo di guidare la trasformazione digitale di grandi aziende e istituti bancari. Fin dall’inizio abbiamo collaborato con le principali multinazionali ICT, offrendo soluzioni tecnologiche su misura e un servizio di eccellenza, sempre da partner, mai da semplici fornitori. La nostra mission è chiara : non solo abbracciare il cambiamento tecnologico, ma guidarlo, creando soluzioni all’avanguardia che plasmino il futuro digitale. In JUMPIT, crediamo fortemente nel mettere le persone al centro di ogni nostra iniziativa. Le persone sono il cuore pulsante della nostra azienda; il loro benessere, la loro crescita e il loro sviluppo sono la nostra priorità. Ci impegniamo a condividere le strategie aziendali con trasparenza e a fornire formazione e supporto a ogni livello, garantendo che ogni membro del team sia equipaggiato per eccellere e innovare. Stiamo cercando individui che condividano la nostra visione, che siano guidati dalla passione per la tecnologia e che desiderino essere protagonisti nella costruzione di un futuro digitale più luminoso. Se sei pronto a far parte di una squadra che valorizza il talento, incoraggia la crescita personale e professionale e lavora in prima linea nel settore della digital transformation, JUMPIT è il posto giusto per te.

Posizione Aperta

Data Engineer Sede : Remoto

Descrizione del Ruolo

Siamo alla ricerca di un Data Engineer con una solida esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili e performanti. La risorsa sarà inserita in un team dedicato alla realizzazione di soluzioni di data processing e data integration in ambienti cloud-native, contribuendo all’evoluzione dell’ecosistema dati aziendale e all’implementazione di architetture moderne orientate al calcolo distribuito. Il candidato ideale ha una forte attitudine tecnica e una conoscenza approfondita dei processi ETL / ELT, dei sistemi di data ingestion e data transformation, oltre a una solida esperienza con strumenti come Apache Spark, Scala, Python e framework per l’elaborazione distribuita.

Cosa offriamo
  • Inserimento immediato in un Talent HUB giovane e dinamico.
  • JUMPIT LEARNING HUB, con corsi di aggiornamento e formazione.

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903 / 77 e 125 / 91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215 / 03 e 216 / 03. I curricula dovranno pervenire completi di dicitura che autorizza il trattamento dei propri dati : “Si autorizza al trattamento dei dati personali ai sensi del D. Lgs. 196 / 2003.”

Competenze richieste
  • Progettare, sviluppare e mantenere pipeline di elaborazione dati affidabili, scalabili e automatizzate.
  • Effettuare operazioni di data ingestion, cleaning, transformation e integration da sorgenti eterogenee.
  • Sviluppare processi ETL / ELT ottimizzati per grandi volumi di dati.
  • Utilizzare Apache Spark (3.x) e Scala (2.12) per il calcolo distribuito e l’elaborazione batch / streaming.
  • Integrare e orchestrare processi cloud-native in ambienti containerizzati basati su Docker e Kubernetes (K8s).
  • Garantire la qualità, la consistenza e la sicurezza dei dati all’interno delle pipeline.
  • Collaborare con Data Scientist, Analyst e team di sviluppo per l’implementazione di soluzioni analitiche e di machine learning.
  • Monitorare e ottimizzare le prestazioni delle pipeline e dei flussi di dati in produzione.
Competenze tecniche
  • Conoscenza avanzata dei database relazionali e del linguaggio SQL.
  • Esperienza con Spark 3.x, Scala 2.12, Python, PySpark o Flink per la gestione di grandi moli di dati.
  • Familiarità con metodologie di data ingestion, data transformation e data pipeline orchestration.
  • Esperienza con Docker per la containerizzazione dei processi.
  • Conoscenza dei principi di orchestrazione in ambienti Kubernetes (K8s).
  • Approccio cloud-native nello sviluppo e nella gestione delle soluzioni dati.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.