Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

Python Data Engineer

Vanguard System - Gruppo Global Sistemi

Bologna

In loco

EUR 30.000 - 45.000

Tempo pieno

13 giorni fa

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'importante azienda di tecnologia è alla ricerca di un Python Data Engineer per progettare e ottimizzare soluzioni basate su dati in ambienti cloud. Il candidato ideale ha esperienza nel Data Engineering e utilizzerà strumenti come Databricks. La posizione richiede capacità di analisi e collaborazione con team interfunzionali. Offriamo un contratto a tempo indeterminato con un salario previsto tra 30K e 45K, in modalità ibrida a Bologna.

Competenze

  • Esperienza nel campo Data Engineering.
  • Capace di progettare, sviluppare e ottimizzare soluzioni basate su dati.
  • Familiarità con strumenti avanzati come Databricks.

Mansioni

  • Analisi e interpretazione di grandi volumi di dati per supportare decisioni strategiche.
  • Sviluppo e gestione di pipeline ETL su piattaforme cloud.
  • Collaborazione con team cross-funzionali per integrare soluzioni data-driven.

Conoscenze

Python (pandas, numpy, scikit-learn, PySpark)
Databricks e Spark per big data processing
Servizi cloud (Azure Data Services, AWS, GCP)
SQL e database relazionali / non relazionali
Strumenti di data visualization (Power BI, Tableau)
Machine learning e statistica applicata
Descrizione del lavoro

Vanguard System , divisione informatica del Gruppo Global Sistemi , ricerca per ampliamento organico, un

Python Data Engineer.

Cerchiamo una persona con esperienza nel campo Data Engineering, capace di progettare, sviluppare e ottimizzare soluzioni basate su dati in ambienti cloud. La persona sarà coinvolta in attività di analisi, modellazione e implementazione di pipeline dati, sfruttando strumenti avanzati come Databricks.

Responsabilità :
  • Analisi e interpretazione di grandi volumi di dati per supportare decisioni strategiche.
  • Sviluppo e gestione di pipeline ETL su piattaforme cloud (Azure, AWS o GCP).
  • Utilizzo di Databricks per la gestione e l’elaborazione dei dati.
  • Collaborazione con team cross-funzionali per integrare soluzioni data-driven.
Competenze Tecniche Richieste :
  • Python (pandas, numpy, scikit-learn, PySpark).
  • Databricks e Spark per big data processing.
  • Esperienza con servizi cloud (Azure Data Services, AWS, GCP).
  • Conoscenza di SQL e database relazionali / non relazionali.
  • Familiarità con strumenti di data visualization (Power BI, Tableau).
  • Nozioni di machine learning e statistica applicata.
Soft Skills :
  • Capacità di problem solving e pensiero analitico.
  • Attitudine al lavoro in team e comunicazione efficace.
  • Orientamento ai risultati e curiosità verso nuove tecnologie.
CCNL METALMECCANICO PMI A TEMPO INDETERMINATO RANGE RAL (da valutare in fase di colloquio) : 30K - 45K
IMPEGNO RICHIESTO :

FULL TIME

MODALITA' DI LAVORO :

BOLOGNA-IBRIDO

Il presente annuncio è rivolto a entrambi i sessi, ai sensi delle leggi 903 / 77 e 125 / 91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215 / 03 e 216 / 03

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.