Attiva gli avvisi di lavoro via e-mail!

Data Engineer/Data Analyst

Hello Vacanze

Porto San Giorgio

In loco

EUR 30.000 - 50.000

Tempo pieno

3 giorni fa
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Inizia da zero o importa un CV esistente

Descrizione del lavoro

A leading company in the tourism sector is seeking a Data Engineer/Data Analyst passionate about data management and analytics. The successful candidate will design and maintain data pipelines, develop ETL processes, and create interactive dashboards. Look forward to a dynamic environment focusing on data-driven decision making and innovative solutions.

Competenze

  • Ottima conoscenza del linguaggio Python.
  • Competenze nella creazione e gestione di pipeline ETL.
  • Familiarità con architetture e tecnologie Big Data.

Mansioni

  • Sviluppo e manutenzione di pipeline ETL per l’acquisizione e integrazione dei dati.
  • Creazione di dashboard e report interattivi tramite strumenti di BI.
  • Collaborazione con team interfunzionali per garantire qualità e accessibilità dei dati.

Conoscenze

Python
Data Engineering
Data Analysis
Machine Learning
Database Management
Web Scraping
Business Intelligence
Big Data Technologies

Strumenti

Power BI
MySQL
PostgreSQL
PySpark
Kakfa
Django
Flask
AWS
GCP
Azure

Descrizione del lavoro

Spin Off di una importante realtà turistica InsightUp nasce per rispondere alle sfide del mercato e continuare ad essere memorabili agli occhi dei clienti.

Per questo nuovo progetto incentrato sul Data Analytics per il settore turistico e non solo, con forti applicazioni di Machine Learning, Deep Learning e Business Intelligence siamo alla ricerca di un Data Engineer / Data Analyst con solide competenze tecniche e una forte passione per la gestione e valorizzazione dei dati.

La figura selezionata sarà coinvolta nella progettazione di pipeline dati, nello sviluppo di processi ETL e nella creazione di strumenti di analisi per supportare le decisioni strategiche aziendali.

Responsabilità principali:

  • Sviluppo e manutenzione di pipeline ETL per l’acquisizione, trasformazione e integrazione dei dati
  • Progettazione di pipeline di dati in tempo reale e batch su piattaforme Big Data
  • Creazione di dashboard e report interattivi tramite Power BI o strumenti equivalenti
  • Gestione e ottimizzazione di database relazionali (MySQL, PostgreSQL)
  • Collaborazione con team interfunzionali per garantire la qualità e l’accessibilità dei dati

Competenze tecniche richieste:

  • Ottima conoscenza del linguaggio Python e delle principali librerie per il data engineering e la data analysis, tra cui:
  • Pandas, NumPy per la manipolazione e analisi dei dati
  • SQLAlchemy per l’interazione con database
  • PySpark per l’elaborazione di grandi volumi di dati
  • Requests, BeautifulSoup, Scrapy per il web scraping (opzionale)
  • Esperienza nell’uso di Power BI o strumenti di Business Intelligence equivalenti
  • Buona conoscenza di MySQL e/o PostgreSQL, incluse query complesse e ottimizzazione
  • Familiarità con strumenti per la gestione di flussi dati in tempo reale (Kafka, Spark Streaming, o equivalenti)
  • Conoscenza delle architetture e tecnologie Big Data

Costituiscono un plus:

  • Conoscenza di librerie di Machine Learning come scikit-learn, TensorFlow, PyTorch
  • Esperienza con framework web come Django, Flask per la creazione di applicazioni web-based legate ai dati
  • Esperienza su piattaforme cloud (AWS, GCP, Azure) per il data engineering
  • Nozioni di data governance e data security

Naturalmente non potrà mancare una chiara rispondenza ai valori aziendali, lavorare per obiettivi, amare le sfide ed esserne stimolato e avere una forte propensione all'innovazione.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.