Attiva gli avvisi di lavoro via e-mail!

Modern & Big Data Engineer / Big Data Architect

Capgemini

Milano

In loco

EUR 40.000 - 70.000

Tempo pieno

30+ giorni fa

Descrizione del lavoro

Una leading company nel settore dell'Information Technology ricerca un Modern Big Data Engineer/Architect per supportare la costruzione di architetture dati moderne. Il candidato ideale possiede una laurea in discipline tecnico-scientifiche e competenze nell'analisi, modellazione dati e sviluppo software. Un forte focus su innovazione e team collaboration è essenziale.

Competenze

  • Competenza nell'analisi e modellazione di dati su architetture dati relazionali e NoSQL.
  • Conoscenza di linguaggi di programmazione: Python, SQL, R.
  • Esperienza nella progettazione di architetture DWH moderne.

Mansioni

  • Supportare i clienti nella progettazione e realizzazione di architetture dati moderne.
  • Sviluppare e rappresentare i dati utilizzando tool dedicati.
  • Implementare best practices per la sicurezza e qualità dei dati.

Conoscenze

Analisi e modellazione dati
Problem solving
Lavoro in team
Mentalità analitica
Proattività

Formazione

Laurea in discipline tecnico-scientifiche

Strumenti

Hadoop
Spark
Hive
ElasticSearch

Descrizione del lavoro

Milan, Italy

Posizione Richiesta

Per l'accrescimento della practice Insights & Data, parte integrante della unit Digital Service che unisce Eccellenza Tecnologica, Data Science e Competenze di Business cross mercato per aiutare le organizzazioni a ottenere insights di valore attraverso le potenzialità della Data Driven View, siamo alla ricerca di Modern Big Data Engineer e Modern Big Data Architect.

La risorsa si occuperà di supportare i clienti nella progettazione e realizzazione di Architetture Dati Moderne (Modern Data Platform), nella modellazione, nell'analisi dei dati, nello sviluppo, e nella rappresentazione degli stessi attraverso l'utilizzo di tool dedicati di front end, seguendo i principali base della Data Governance.

  • Laurea in discipline tecnico-scientifiche
  • Competenza nellanalisi e modellazione dati (concettuale e logica) su classico paradigma di Data Platform con architetture dati relazionali in logica DWH (es: ambiente Oracle, Teradata, Ms SQL Server, etc) oppure in ambiente NoSQL (MongoDB, Elasticsearch, ...) e su soluzione open source (Apache Hive, Apache Impala, Apache Hadoop)
  • Conoscenza di uno o più linguaggi di programmazione e/o di interrogazione e piattaforme di sviluppo (Python, Pyspark, SQL, PL/SQL, R, SAS Base)
  • Competenza nella scrittura di query SQL avanzate.
  • Competenza nella progettazione diArchitetture DWH Moderne e/o Big Data (Lambda, Kappa) e/o Distribuite (paradigma Data Mesh)
  • Conoscenza delle best practices per la sicurezza dei dati
  • Competenza nel disegno e nello sviluppo di processi di data integration & transformation (ETL) e fondamenti della Data Quality, attraverso principali tool di mercato.
  • Conoscenza dei principali Framework Big Data e software a corredo (Hadoop, Hive, Impala, Spark, Scala su framework Java o su framework Spark, etc).
  • Conoscenza delle best practices per la sicurezza dei dati.
  • Conoscenza dei principi base della Data Virtualization
  • Gradita conoscenza dei principi basati sui processi e modelli di Data Governance e Master Data Management
  • Gradita conoscenza di tecniche di DevOps
  • Conoscenza della lingua inglese
  • Mentalità analitica, ordinata e orientata al problem solving
  • Attitudine alla comunicazione e al lavoro in team
  • Proattività e attitudine alla gestione del cliente
  • Passione per l'innovazione e l'Information Technology
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.