Data Engineer

Solo per membri registrati
Udine
EUR 30.000 - 45.000
Descrizione del lavoro

Selection 4.0, società tecnologicamente all’avanguardia specializzata nella ricerca e selezione di profili di Middle e Top Management a livello nazionale e internazionale, è alla ricerca di un Data Engineer.

Il nostro Cliente è una delle principali web company italiane, con oltre 1000 dipendenti e più di 10 milioni di utenti, in crescita costante, con piattaforme web e punti fisici distribuiti in tutta Italia.

Inserito in un team altamente qualificato, ti occuperai dell’evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e contribuendo alla creazione di prodotti innovativi per milioni di italiani. Collaborerai con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, fornendo supporto di dati alle Business Unit come Marketing, Servizi Finanziari e Assicurazioni, che lavorano su analisi e machine learning.

Responsabilità :

  • Progettare e sviluppare data pipeline in modalità batch e streaming
  • Collaborare con Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps
  • Definire e implementare l’orchestrazione dei processi in ambienti containerizzati
  • Sviluppare microservizi per l’esposizione e la fruizione dei dati agli stakeholder aziendali
  • Monitorare l’intero ciclo di vita dei processi (pipeline, modelli, API) tramite strumenti dedicati
  • Automatizzare il ciclo di vita del software con soluzioni CI / CD e Infrastructure as Code (es. GitLab CI, Terraform)
  • Modellare e trasformare i dati usando dbt, facilitando collaborazione e gestione delle logiche di business

Requisiti :

  • Laurea in Informatica, Ingegneria Informatica o campi affini
  • 1-3 anni di esperienza come Data Engineer o Software Engineer
  • Esperienza in ambienti cloud, preferibilmente su Google Cloud Platform (GCP)
  • Ottima conoscenza di Python (e/o Java, Scala)
  • Solida padronanza di SQL, preferibilmente su BigQuery
  • Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)
  • Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub
  • Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)
  • Familiarità con sistemi di versionamento del codice (GIT)
  • Attitudine al problem solving, proattività e orientamento al miglioramento continuo

Luogo di lavoro : HQ Milano, con possibilità di lavoro full remote (con incontri periodici)

Offriamo un ambiente meritocratico, welfare tra i migliori, formazione tecnica, giornate di contaminazione reciproca, percorsi di crescita interni, cultura aziendale positiva e attenzione al benessere delle persone. La nostra azienda è solida, strutturata e in crescita.