Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer ( Rif. 2025-267)

aizoOn Technology Consulting

Torino

In loco

EUR 35.000 - 55.000

Tempo pieno

2 giorni fa
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una società di consulenza tecnologica cerca un Data Engineer per progetti di integrazione dati su AWS. Il candidato ideale ha esperienza in pipeline ETL, architetture cloud e microservizi. Richiesta laurea in ambito tecnico e almeno 3 anni di esperienza, oltre a una buona conoscenza dell'inglese. Si offre un ambiente stimolante in contesto di mobilità sostenibile con occasionale lavoro sul campo a Torino.

Competenze

  • Almeno 3 anni di esperienza in ruoli simili in contesti cloud.
  • Ottima conoscenza della lingua inglese, minimo B2.
  • Esperienza con strumenti di migrazione dati e replica.

Mansioni

  • Progettare e implementare pipeline ETL per integrazione dati.
  • Creare soluzioni di migrazione usando AWS.
  • Gestire l'evoluzione degli schemi e la qualità dei dati.

Conoscenze

AWS Glue
Apache Spark
ETL Pipeline Design
Microservices Architecture
SQL Advanced
Python Programming
Data Lake Solutions
Change Data Capture

Formazione

Laurea in materie tecnico/scientifiche

Strumenti

AWS DMS
Terraform
CloudFormation
Debezium
Descrizione del lavoro

aizoOn, società di consulenza tecnologica di innovazione, indipendente, che opera a livello globale ricerca un / una Data Engineer.

Il / La candidato / a verrà inserito / a nell'area IT della divisione di mercato Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.

Parteciperà a progetti complessi di integrazione dati su AWS, lavorerà su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati.

In particolare si occuperà di :
  • Progettare e implementare pipeline ETL per l'integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora / MySQL, MongoDB) utilizzando AWS Glue, Spark e Lambda.
  • Creare soluzioni di migrazione dei dati utilizzando AWS DMS, Debezium e altri strumenti di change data capture per consentire la sincronizzazione continua dei dati tra microservizi e sistemi esterni.
  • Progettare soluzioni di data lake su S3, strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridge.
  • Gestire l'evoluzione degli schemi e le sfide relative alla qualità dei dati, risolvendo le incongruenze dei tipi di dati tra sistemi NoSQL e SQL.
PROFILO
  • Laurea in materie tecnico / scientifiche.
  • Almeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions).
  • Ottima conoscenza della lingua inglese, minimo B2.
COMPETENZE TECNICHE
  • Esperienza pratica con con strumenti di migrazione dati e CDC, tra cui AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione del database.
  • Esperienza nell'elaborazione di dati in batch e streaming con Apache Spark (Scala / Python), PySpark e architetture di pipeline di dati distribuite.
  • Ottime competenze di database che includono SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora / MySQL, SQL Server).
  • Competenza nell'architettura dei microservizi e nei modelli di integrazione API, tra cui API REST, limitazione della velocità, meccanismi di ripetizione e tolleranza agli errori.
  • Esperienza con formati di dati e gestione degli schemi, tra cui Parquet, JSON, evoluzione degli schemi e convalida della qualità dei dati.
  • Competenza nella programmazione in Python per l'elaborazione dei dati, lo scripting e l'integrazione con AWS SDK.
Nice to have :
  • Esperienza di Infrastructure as Code (IaC) con Terraform o CloudFormation per la distribuzione automatizzata di pipeline di dati
  • Esperienza di governance e monitoraggio dei dati con CloudWatch, metriche personalizzate, tracciamento della discendenza dei dati e sistemi di avviso.
  • Gestione di pipeline CI / CD per la distribuzione e il test automatizzati di soluzioni di data engineering.
  • Pratiche DevOps ed esperienza con tecnologie di containerizzazione e orchestrazione.
INFORMAZIONI AGGIUNTIVE

Sono previste saltuarie e brevi trasferte presso il cliente a Torino.

The job search refers to candidates of both genders

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.