Attiva gli avvisi di lavoro via e-mail!

Data Specialist

JR Italy

Cagliari

In loco

EUR 40.000 - 60.000

Tempo pieno

22 giorni fa

Descrizione del lavoro

Un'azienda tecnologica è alla ricerca di un Consulente Tecnico Databricks con almeno 3-4 anni di esperienza. Il candidato ideale ha competenze in Python, SQL e PySpark, e sarà responsabile della progettazione e implementazione di pipeline di dati su Databricks Cloud. Offriamo un ambiente di lavoro innovativo e dinamico.

Competenze

  • Minimo 3-4 anni di esperienza su Databricks e cloud.
  • Ottima conoscenza di Python, SQL e PySpark.
  • Esperienza in progettazione di pipeline di dati.

Mansioni

  • Progettare e implementare data pipeline su Databricks Cloud.
  • Ottimizzare workflow di data processing.
  • Collaborare all’integrazione di processi di machine learning.

Conoscenze

Esperienza su Databricks
Python
SQL
PySpark
ETL/ELT

Strumenti

Databricks
Azure
AWS
GCP
Descrizione del lavoro

Consulente Tecnico Databricks (min. 3-4 anni esperienza)

Competenze richieste (Must-Have)

  • Esperienza comprovata di almeno 3-4 anni su Databricks e progetti di data engineering in ambiente cloud (preferibilmente Azure, ma vanno bene anche AWS o GCP).
  • Ottima conoscenza di Python (essenziale), SQL e PySpark.
  • Esperienza in progettazione, sviluppo e ottimizzazione di pipeline di dati, Data Lake, e Spark.
  • Conoscenza di concetti ETL/ELT, data warehousing, data modeling, e best practice di sicurezza e governance dati.

Competenze preferenziali (Nice-to-have)

  • Esperienza in DAX (ad esempio per integrazione Power BI o modelli di analytics avanzati).
  • Conoscenza di Scala e Databricks Connect.
  • Esperienza con PyTorch e TensorFlow per progetti di machine learning e deep learning su Databricks.
  • Esperienza con DevOps (Azure DevOps/Jenkins) e strumenti CI/CD.
  • Certificazioni Databricks Associate o Professional.

Responsabilità tipiche

  • Progettare e implementare data pipeline e soluzioni analytics/ML scalabili su Databricks Cloud.
  • Ottimizzare workflow di data processing, identificando e risolvendo colli di bottiglia.
  • Collaborare all’integrazione e automazione dei processi di machine learning, incluse pipeline PyTorch/TensorFlow quando richiesto.
  • Garantire monitoraggio, qualità e sicurezza dei dati su tutto il ciclo di vita dei progetti.
  • Supportare team interni e clienti nella migrazione, ottimizzazione e gestione delle infrastrutture dati su Databricks.
Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.