Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data / AI Engineer (Sede Napoli)

Ciao People srl

Napoli

In loco

EUR 35.000 - 50.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda leader nel settore digitale cerca un Data / AI Engineer per unirsi al team a Napoli. Il candidato si occuperà della gestione di Big Data e dell'applicazione di modelli di AI per l'analisi dei dati. Saranno richieste competenze in architettura dei dati, programmazione in Python e machine learning. La posizione è in sede e il pacchetto retributivo sarà commisurato all'esperienza del candidato.

Competenze

  • Progettazione e gestione di data warehouse/data lake.
  • Programmazione in Python e/o Scala/Java.
  • Implementazione di algoritmi supervised e unsupervised.
  • Text preprocessing e utilizzo di modelli Transformer.
  • Collaborazione con team di prodotto e DevOps.

Mansioni

  • Lavorare ai prodotti editoriali e strumenti software.
  • Gestire e manipolare grandi volumi di dati.
  • Applicare modelli di AI per analisi e classificazione.

Conoscenze

Data Architecture
Data Processing
Machine Learning Fundamentals
Natural Language Processing
Cross-functional Collaboration

Strumenti

BigQuery
Snowflake
Redshift
Python
Scala
Java
scikit-learn
TensorFlow
PyTorch
AWS
GCP
Azure
Descrizione del lavoro

Ciaopeople è un gruppo editoriale, leader in Italia nel campo digitale. Editore di Fanpage.it, Cookist, Geopop, The Jackal, Metamostri e Deepinto opera nell’informazione online, nella produzione multimediale e nell’entertainment.

Ciaopeople ha sedi a Napoli, Roma, Milano.

Per il consolidamento del nostro team tecnico, siamo alla ricerca di un risorsa da inserire nella sede di Napoli che risponda al ruolo di :

Data / AI Engineer

La persona che entrerà a far parte del team lavorerà ai prodotti editoriali di Ciaopeople e agli strumenti software interni a supporto delle attività editoriali. In particolare, si occuperà dei sistemi di Big Data e della gestione e manipolazione di grandi volumi di dati eterogenei (strutturati e non strutturati) tramite processi di ELT / ETL e l’applicazione di modelli di AI (NLP / DL) per l’analisi, la classificazione dei dati e il text mining.

Competenze richieste
  • Data Architecture : progettazione e gestione di data warehouse / data lake (BigQuery, Snowflake, Redshift); pipeline ETL / ELT per dati strutturati, semi‑strutturati e non strutturati.
  • Data Processing : programmazione in Python e / o Scala / Java per framework big‑data.
  • Machine Learning Fundamentals : implementazione di algoritmi supervised e unsupervised con scikit‑learn, TensorFlow o PyTorch; pipeline di training, validazione e deploy.
  • Natural Language Processing : text preprocessing, tokenization, estrazione di entità, analisi del sentiment; utilizzo di modelli Transformer e LLM per use‑case generici.
  • Cross‑functional Collaboration : interfaccia con team di prodotto, DevOps e software engineering per garantire integrazione e allineamento ai requisiti di business.
Requisiti preferenziali
  • MLOps & Orchestration : versioning e monitoraggio dei modelli, continuous training e inferenza.
  • Cloud & Scalability : deploy di soluzioni dati e AI in ambienti AWS, GCP o Azure; gestione di risorse (S3).
  • Data Governance : controlli di data quality, sicurezza, compliance GDPR.

La sede di inserimento è Napoli

Modalità di lavoro : in sede

Il livello di inquadramento ed il pacchetto retributivo, saranno commisurati alla seniority, all'esperienza ed alle competenze maturate dalla risorsa.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.