Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data/AI Engineer (Sede Napoli)

Ciaopeople

Napoli

In loco

EUR 50.000 - 70.000

Tempo pieno

Oggi
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un gruppo editoriale leader in Italia cerca un Data / AI Engineer da inserire nella sede di Napoli. Il candidato si occuperà di progetti riguardanti Big Data, gestendo e manipolando grandi volumi di dati e applicando modelli di AI per analisi e text mining. Requisiti richiesti includono competenze in Data Architecture, Data Processing e Machine Learning. La modalità di lavoro è in sede con un pacchetto retributivo basato sulla seniority e competenze del candidato.

Competenze

  • Esperienza nella progettazione e gestione di data warehouse/data lake.
  • Conoscenza di programmazione in Python e/o Scala/Java.
  • Competenze in implementazione di algoritmi supervised e unsupervised.

Mansioni

  • Lavorare ai prodotti editoriali e agli strumenti software interni.
  • Gestire e manipolare grandi volumi di dati tramite processi di ELT/ETL.
  • Applicare modelli di AI per analisi e text mining.

Conoscenze

Data Architecture
Data Processing
Machine Learning Fundamentals
Natural Language Processing
Cross-functional Collaboration

Strumenti

BigQuery
Snowflake
Redshift
scikit-learn
TensorFlow
PyTorch
AWS
GCP
Azure
Descrizione del lavoro

Ciaopeople è un gruppo editoriale, leader in Italia nel campo digitale. Editore di Fanpage.it, Cookist, Geopop, The Jackal, Metamostri e Deepinto opera nell’informazione online, nella produzione multimediale e nell’entertainment. Ciaopeople ha sedi a Napoli, Roma, Milano.

Posizione:

Per il consolidamento del nostro team tecnico, siamo alla ricerca di un risorsa da inserire nella sede di Napoli che risponda al ruolo di:

Data / AI Engineer

La persona che entrerà a far parte del team lavorerà ai prodotti editoriali di Ciaopeople e agli strumenti software interni a supporto delle attività editoriali. In particolare, si occuperà dei sistemi di Big Data e della gestione e manipolazione di grandi volumi di dati eterogenei (strutturati e non strutturati) tramite processi di ELT/ETL e l’applicazione di modelli di AI (NLP/DL) per l’analisi, la classificazione dei dati e il text mining.

Requisiti:

Competenze richieste:

  • Data Architecture: progettazione e gestione di data warehouse/data lake (BigQuery, Snowflake, Redshift); pipeline ETL/ELT per dati strutturati, semi‑strutturati e non strutturati.
  • Data Processing: programmazione in Python e/o Scala/Java per framework big‑data.
  • Machine Learning Fundamentals: implementazione di algoritmi supervised e unsupervised con scikit‑learn, TensorFlow o PyTorch; pipeline di training, validazione e deploy.
  • Natural Language Processing: text preprocessing, tokenization, estrazione di entità, analisi del sentiment; utilizzo di modelli Transformer e LLM per use‑case generici.
  • Cross‑functional Collaboration: interfaccia con team di prodotto, DevOps e software engineering per garantire integrazione e allineamento ai requisiti di business.
Requisiti preferenziali:
  • MLOps & Orchestration: versioning e monitoraggio dei modelli, continuous training e inferenza.
  • Cloud & Scalability: deploy di soluzioni dati e AI in ambienti AWS, GCP o Azure; gestione di risorse (S3).
  • Data Governance: controlli di data quality, sicurezza, compliance GDPR.
Altre informazioni:

La sede di inserimento è Napoli.

Modalità di lavoro: in sede.

Il livello di inquadramento ed il pacchetto retributivo, saranno commisurati alla seniority, all'esperienza ed alle competenze maturate dalla risorsa.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.