Data Engineer

Solo per membri registrati
Asti
EUR 30.000 - 45.000
Descrizione del lavoro

Selection 4.0, società tecnologicamente all’avanguardia specializzata nella ricerca e selezione di profili di Middle e Top Management a livello nazionale e internazionale, è alla ricerca di un Data Engineer.

Il nostro cliente è una delle principali web company italiane, con oltre 1000 dipendenti e più di 10 milioni di utenti. La società è in crescita costante, con piattaforme web e punti fisici distribuiti in tutta Italia.

Inserito in un team altamente qualificato, il candidato si occuperà dell’evoluzione della piattaforma dati centralizzata, raccogliendo ed elaborando grandi quantità di dati e contribuendo alla creazione di prodotti innovativi per milioni di italiani. Collaborerà con Product Manager, Data Scientist, Data Analyst e altri Data Engineer, supportando le Business Unit come Marketing, Servizi Finanziari e Assicurazioni, attraverso analisi e machine learning.

Responsabilità:

  1. Progettare e sviluppare data pipeline in modalità batch e streaming
  2. Collaborare con i Data Scientist per industrializzare modelli predittivi, applicando principi di MLOps
  3. Definire e implementare l’orchestrazione dei processi in ambienti containerizzati
  4. Sviluppare microservizi per l’esposizione e la fruizione dei dati agli stakeholder aziendali
  5. Monitorare il ciclo di vita dei processi (pipeline, modelli, API) attraverso strumenti dedicati
  6. Automatizzare il ciclo di vita del software con soluzioni CI/CD e Infrastructure as Code (es. GitLab CI, Terraform)
  7. Modellare e trasformare i dati con dbt, facilitando collaborazione e gestione delle logiche di business

Requisiti:

  • Laurea in Informatica, Ingegneria Informatica o campi affini
  • 1-3 anni di esperienza come Data Engineer o Software Engineer
  • Esperienza con ambienti cloud, preferibilmente Google Cloud Platform (GCP)
  • Ottima conoscenza di Python (e/o Java, Scala)
  • Solida padronanza di SQL, preferibilmente su BigQuery
  • Esperienza con framework di elaborazione dati distribuiti (es. Apache Spark, Apache Beam)
  • Conoscenza di sistemi di messaggistica come Kafka o Google Pub/Sub
  • Esperienza con strumenti di orchestrazione (es. Apache Airflow) e ambienti containerizzati (Docker, Kubernetes)
  • Familiarità con sistemi di versionamento del codice (GIT)
  • Attitudine al problem solving, proattività e orientamento al miglioramento continuo

Offerta:

  • Ambiente meritocratico
  • Welfare aziendale tra i migliori
  • Formazione tecnica e giornate di contaminazione reciproca
  • Percorsi di crescita interni
  • Cultura aziendale positiva e attenta al benessere delle persone
  • Azienda solida, strutturata e in crescita

Sede di lavoro:

HQ Milano, con possibilità di lavoro full remote (con incontri periodici)