eGlue è un partner considerato strategico dalle aziende clienti che desiderano innovare e ottimizzare la comunicazione digitale con il proprio customer base. Con oltre 40 anni di esperienza, eGlue affianca i propri clienti in un percorso di trasformazione digitale che abbraccia la comunicazione, la consulenza e l'innovazione tecnologica. L'azienda opera attraverso tre principali aree di business:
- Engagement Services: eGlue connette le aziende e i loro clienti attraverso strumenti innovativi di comunicazione con l'obiettivo di creare e perfezionare l'esperienza del cliente (Customer Journey) e di conseguire gli obiettivi di business dell'azienda.
- CCM Consulting: Grazie a una profonda conoscenza del mercato IT e delle dinamiche di business, eGlue offre consulenza di processo per supportare le aziende nello sviluppo e nell'implementazione di strategie in ambito di digital communication e digital transformation.
- IT Consulting: eGlue fornisce consulenza IT altamente specializzata in ambito Governance, Cloud & Infrastructure, Big Data & AI e Cyber Security. Con profili verticalizzati sui settori Banking, Insurance, Energy e Utilities, eGlue si propone come un partner in grado di rispondere alle sfide piùplesse dei propri clienti, offrendo soluzioni su misura e un supporto di eccellenza.
In ottica di potenziamento della nostra divisione IT Consulting stiamo ricercando una figura di:
Big Data Engineer
La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.
Attività
- Sviluppo di progetti Big Data garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema.
- Gestione dei layer di integrazione su piattaforma Big Data.
- Contribuire alla definizione degli standard, regole e modelli architetturali.
- Coordinamento operativo degli attori coinvolti.
Requisiti
- Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente.
- Almeno 2-3 anni di esperienza nel ruolo.
- Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche.
- Linguaggi di programmazione: Java, Python, R (Scala preferenziale).
- Conoscenza dei principali pattern architetturali di data-architecture.
- Conoscenza ed esperienza nell'utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS).
- Strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka e simili).
- Manipolazione, estrazione e trasformazione di database non strutturati.
- Requisiti preferenziali:
- Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks / AWS.
- Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione).
- Principali tecniche di data wrangling, cleansing, exploration e featurization.
Sede di Lavoro
Milano
Modalità di Lavoro
Alternanza settimanale tra presenza on-site (3gg) e lavoro da remoto (2gg).
Contratto
Assunzione diretta a tempo indeterminato con contratto CCNL Metalmeccanico, fino a €55.000 RAL. L'offerta include buoni pasto da €6,50 per giorno lavorato.