Attiva gli avvisi di lavoro via e-mail!

Big Data Expert

NTT

Pisa

In loco

EUR 40.000 - 70.000

Tempo pieno

5 giorni fa
Candidati tra i primi

Descrizione del lavoro

Un'importante azienda IT cerca professionisti per sviluppare applicazioni complesse in ambienti Big Data. I candidati devono avere almeno 2 anni di esperienza, competenze in Apache Spark, SQL e linguaggi come Java o Python. La posizione offre un ambiente di lavoro collaborativo e crescita professionale.

Competenze

  • Almeno 2 anni di esperienza nelle tematiche richieste.
  • Ottima conoscenza di Apache Spark/Spark Streaming, Apache Kafka e database NoSQL.
  • Esperienza nel linguaggio ad oggetti (Java, Python, Scala).

Mansioni

  • Analizzare, progettare ed implementare applicazioni complesse basate su Big Data.
  • Valutare gli impatti e stimare l'impegno per nuove applicazioni.
  • Supportare le scelte tecnologiche per il progetto.

Conoscenze

Esperienza in ambienti Cloud
Apache Spark/Spark Streaming
Apache Kafka
SQL
Sviluppo in Java
Sviluppo in Python
HDFS
API RESTful

Strumenti

Apache Hive
Cloudera
Kubernetes

Descrizione del lavoro

NTT DATA, Trusted Global Innovator, è tra i principali player a livello mondiale in ambito IT services. Con più di 140.000 professionisti in oltre 50 Paesi in tutto il mondo, siamo protagonisti e acceleratori della trasformazione digitale offrendo ai nostri clienti soluzioni tecnologiche e innovative progettate su misura. Il motore di NTTDATA sono le persone, ognuna con la propria unicità, talento ed attitudine. Abbiamo costruito una Smile Working Company in cui la cura, l’ascolto delle persone, il loro benessere e sviluppo delle competenze sono la nostra priorità. Abbiamo creato spazi di lavoro che favoriscono il senso di comunità e lo scambio costruttivo di esperienze.

Guardiamo al nostro domani con la stessa passione di ieri e abbiamo bisogno anche del tuo talento!

Data Intelligence è l'area di NTT DATA Italia focalizzata nell'estrarre valore dai dati, è costituita da circa 600 risorse interne alle quali si aggiunge un ecosistema di partner selezionati.

Le attività rientrano nell'ambito delle professionalità tipiche dell'area:

La posizione è aperta a livelli di seniority diversificati; da profili con almeno 2 anni di esperienza specifica a profili più senior (data engineer/architect/middle management).

Il candidato in base alla sua senority avrà il compito di:

  • Analizzare, progettare ed implementare applicazioni complesse basate su tecnologie Big Data lavorando in team
  • Valutare gli impatti e stimare l'impegno (in termini di tempi e costi) di realizzazione di nuove applicazioni
  • Supportare negli aspetti di disegno e di definizione di scelte tecnologiche tenendo conto del contesto di applicazione
  • Interfacciarsi a diversi livelli con i diversi attori coinvolti (developer, capo progetto, cliente.)

Si richiedono almeno 2 anni di esperienza nelle tematiche richieste:

  • Esperienza di utilizzo di ambienti Cloud (AWS, Google Cloud Platform, Microsoft Azure, ecc…)
  • Ottima conoscenza di Apache Spark/Spark Streaming, Apache Kafka e database NoSQL (Apache Cassandra, MongoDB, Hbase, SOLR)
  • Ottima conoscenza del linguaggio SQL
  • Esperienza comprovata in sviluppo applicazioni con linguaggio ad oggetti (Java, Python, Scala)
  • Esperienza nell'utilizzo del filesystem distribuito HDFS
  • Esperienza nell'uso di una o più delle seguenti applicazioni: Apache Hive, Apache Flume, Apache Sqoop, Apache Oozie, Apache Zeppelin, Elastic Stack
  • Esperienza di utilizzo e/o configurazione di una o più delle seguenti piattaforme: Cloudera, Kubernetes.
  • Esperienza nello sviluppo di sistemi basati su API RESTful.

Location: Bari, Bologna, Cosenza, Milano, Napoli, Roma, Salerno, Torino, Treviso, Pisa

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.