Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Big Data Expert

NTT

Torino

In loco

EUR 40.000 - 60.000

Tempo pieno

13 giorni fa

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Una compagnia globale nel settore IT cerca candidati per posizioni relative a Big Data a Torino. Si richiedono almeno 2 anni di esperienza in ambienti Cloud e una solida conoscenza di Apache Spark, Kafka e SQL. Il candidato dovrà analizzare e implementare applicazioni complesse, e interfacciarsi con diversi attori nel progetto. La posizione è aperta a livelli di seniority diversificati.

Competenze

  • Minimo 2 anni di esperienza in ambienti Cloud.
  • Ottima conoscenza di Apache Spark e Kafka.
  • Esperienza in SQL e linguaggi ad oggetti (Java, Python, Scala).
  • Capacità di analisi e progettazione di applicazioni complesse.

Mansioni

  • Analizzare, progettare ed implementare applicazioni complesse.
  • Valutare impatti e stimare costi di nuove applicazioni.
  • Supportare la definizione di scelte tecnologiche.
  • Interfacciarsi con vari attori nel progetto.

Conoscenze

Ambienti Cloud (AWS, Google Cloud Platform, Microsoft Azure)
Apache Spark / Spark Streaming
Apache Kafka
Database NoSQL (Apache Cassandra, MongoDB, Hbase, SOLR)
SQL
Sviluppo applicazioni in Java
Sviluppo applicazioni in Python
Sviluppo applicazioni in Scala
Filesystem distribuito HDFS
Apache Hive
Apache Flume
Apache Sqoop
Apache Oozie
Apache Zeppelin
Elastic Stack
Cloudera
Kubernetes
API RESTful
Descrizione del lavoro
Job Description

NTT DATA, Trusted Global Innovator, è tra i principali player a livello mondiale in ambito IT services. Con più di 140.000 professionisti in oltre 50 Paesi in tutto il mondo, siamo protagonisti e acceleratori della trasformazione digitale offrendo ai nostri clienti soluzioni tecnologiche e innovative progettate su misura. Il motore di NTTDATA sono le persone, ognuna con la propria unicità, talento ed attitudine. Abbiamo costruito una Smile Working Company in cui la cura, l’ascolto delle persone, il loro benessere e sviluppo delle competenze sono la nostra priorità. Abbiamo creato spazi di lavoro che favoriscono il senso di comunità e lo scambio costruttivo di esperienze.

Guardiamo al nostro domani con la stessa passione di ieri e abbiamo bisogno anche del tuo talento!

Responsibilities

Data Intelligence è l'area di NTT DATA Italia focalizzata nell'estrarre valore dai dati, è costituita da circa 600 risorse interne alle quali si aggiunge un ecosistema di partner selezionati.

Le attività rientrano nell'ambito delle professionalità tipiche dell'area :

  • Data Management
  • Data Visualization
  • Advanced Analytics
  • Big Data

La posizione è aperta a livelli di seniority diversificati; da profili con almeno 2 anni di esperienza specifica a profili più senior (data engineer / architect / middle management).

Il candidato in base alla sua senority avrà il compito di :
  • Analizzare, progettare ed implementare applicazioni complesse basate su tecnologie Big Data lavorando in team
  • Valutare gli impatti e stimare l'impegno (in termini di tempi e costi) di realizzazione di nuove applicazioni
  • Supportare negli aspetti di disegno e di definizione di scelte tecnologiche tenendo conto del contesto di applicazione
  • Interfacciarsi a diversi livelli con i diversi attori coinvolti (developer, capo progetto, cliente.)
Required Skills

Si richiedono almeno 2 anni di esperienza nelle tematiche richieste :

  • Esperienza di utilizzo di ambienti Cloud (AWS, Google Cloud Platform, Microsoft Azure, ecc…)
  • Ottima conoscenza di Apache Spark / Spark Streaming, Apache Kafka e database NoSQL (Apache Cassandra, MongoDB, Hbase, SOLR)
  • Ottima conoscenza del linguaggio SQL
  • Esperienza comprovata in sviluppo applicazioni con linguaggio ad oggetti (Java, Python, Scala)
  • Esperienza nell'utilizzo del filesystem distribuito HDFS
  • Esperienza nell'uso di una o più delle seguenti applicazioni : Apache Hive, Apache Flume, Apache Sqoop, Apache Oozie, Apache Zeppelin, Elastic Stack
  • Esperienza di utilizzo e / o configurazione di una o più delle seguenti piattaforme : Cloudera, Kubernetes.
  • Esperienza nello sviluppo di sistemi basati su API RESTful.

Location: Bari, Bologna, Cosenza, Milano, Napoli, Roma, Salerno, Torino, Treviso, Pisa

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.