Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Data Engineer/Data Analyst

Hello Vacanze

Porto San Giorgio

In loco

EUR 30.000 - 50.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'importante azienda turistica cerca un Data Engineer/Data Analyst con forti competenze in Python e strumenti di Business Intelligence. La figura sarà responsabile dello sviluppo di pipeline ETL, della creazione di report interattivi e della gestione di database. Richiesta esperienza con MySQL e PostgreSQL, oltre a conoscenze di strumenti per flussi dati in tempo reale. La posizione offre opportunità di innovazione in un ambiente stimolante.

Competenze

  • Ottima conoscenza del linguaggio Python e delle librerie per il data engineering.
  • Esperienza nell'uso di strumenti di Business Intelligence.
  • Familiarità con strumenti per la gestione di flussi dati in tempo reale.

Mansioni

  • Sviluppo di pipeline ETL per l'acquisizione e integrazione dei dati.
  • Creazione di dashboard e report interattivi.
  • Collaborazione con team interfunzionali per garantire la qualità dei dati.

Conoscenze

Python
Pandas
NumPy
SQLAlchemy
PySpark
Power BI
MySQL
PostgreSQL
Kafka
Spark Streaming

Strumenti

Power BI
Django
Flask
AWS
GCP
Azure
Descrizione del lavoro
Spin Off di una importante realtà turistica InsightUp nasce per rispondere alle sfide del mercato e continuare ad essere memorabili agli occhi dei clienti.

Per questo nuovo progetto incentrato sul Data Analytics per il settore turistico e non solo, con forti applicazioni di Machine Learning, Deep Learning e Business Intelligence siamo alla ricerca di un Data Engineer / Data Analyst con solide competenze tecniche e una forte passione per la gestione e valorizzazione dei dati.

La figura selezionata sarà coinvolta nella progettazione di pipeline dati, nello sviluppo di processi ETL e nella creazione di strumenti di analisi per supportare le decisioni strategiche aziendali.

Responsabilità principali:

  • Sviluppo e manutenzione di pipeline ETL per l’acquisizione, trasformazione e integrazione dei dati
  • Progettazione di pipeline di dati in tempo reale e batch su piattaforme Big Data
  • Creazione di dashboard e report interattivi tramite Power BI o strumenti equivalenti
  • Gestione e ottimizzazione di database relazionali (MySQL, PostgreSQL)
  • Collaborazione con team interfunzionali per garantire la qualità e l’accessibilità dei dati

Competenze tecniche richieste:

  • Ottima conoscenza del linguaggio Python e delle principali librerie per il data engineering e la data analysis, tra cui:
  • Pandas, NumPy per la manipolazione e analisi dei dati
  • SQLAlchemy per l’interazione con database
  • PySpark per l’elaborazione di grandi volumi di dati
  • Requests, BeautifulSoup, Scrapy per il web scraping (opzionale)
  • Esperienza nell’uso di Power BI o strumenti di Business Intelligence equivalenti
  • Buona conoscenza di MySQL e/o PostgreSQL, incluse query complesse e ottimizzazione
  • Familiarità con strumenti per la gestione di flussi dati in tempo reale (Kafka, Spark Streaming, o equivalenti)
  • Conoscenza delle architetture e tecnologie Big Data

Costituiscono un plus:

  • Conoscenza di librerie di Machine Learning come scikit-learn, TensorFlow, PyTorch
  • Esperienza con framework web come Django, Flask per la creazione di applicazioni web-based legate ai dati
  • Esperienza su piattaforme cloud (AWS, GCP, Azure) per il data engineering
  • Nozioni di data governance e data security

Naturalmente non potrà mancare una chiara rispondenza ai valori aziendali, lavorare per obiettivi, amare le sfide ed esserne stimolato e avere una forte propensione all'innovazione.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.