Data Engineer

Solo per membri registrati
Pistoia
Remoto
EUR 30.000 - 45.000
Descrizione del lavoro

Selection 4.0, una società tecnologicamente all’avanguardia specializzata nella ricerca e selezione di profili di Middle e Top Management a livello nazionale e internazionale, è alla ricerca di un Data Engineer.

Il nostro cliente è una delle principali web company italiane, con oltre 1000 dipendenti e più di 10 milioni di utenti, in crescita costante grazie alle proprie piattaforme web e punti fisici distribuiti in tutta Italia.

Inserito in un team altamente qualificato, ti occuperai dell'evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e contribuendo alla creazione di prodotti innovativi per milioni di italiani. Collaborerai con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, fornendo dati a supporto delle Business Unit come Marketing, Servizi Finanziari e Assicurazioni, che lavorano su analisi e machine learning.

Responsabilità:

  • Progettare e sviluppare data pipeline in modalità batch e streaming.
  • Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps.
  • Definire e implementare l'orchestrazione dei processi in ambienti containerizzati.
  • Sviluppare microservizi per l'esposizione e la fruizione dei dati agli stakeholder aziendali.
  • Monitorare l'intero ciclo di vita dei processi (pipeline, modelli, API) tramite strumenti dedicati.
  • Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform).
  • Modellare e trasformare i dati usando dbt, facilitando la collaborazione e la gestione delle logiche di business.

Requisiti:

  • Laurea in Informatica, Ingegneria Informatica o campi affini.
  • 1–3 anni di esperienza come Data Engineer o Software Engineer.
  • Esperienza nello sviluppo in ambienti cloud, preferibilmente su Google Cloud Platform (GCP).
  • Ottima conoscenza di Python (e/o Java, Scala).
  • Solida padronanza di SQL, preferibilmente su BigQuery.
  • Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam).
  • Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub.
  • Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes).
  • Familiarità con sistemi di versionamento del codice (GIT).
  • Attitudine al problem solving, proattività e orientamento al miglioramento continuo.

Luogo di lavoro: HQ Milano, con possibilità di lavoro full remote (con incontri periodici).