Attiva gli avvisi di lavoro via e-mail!

Data Specialist

TECHSON

Belluno

In loco

EUR 40.000 - 60.000

Tempo pieno

14 giorni fa

Descrizione del lavoro

Un'azienda tecnologica cerca un Consulente Tecnico Databricks con almeno 3-4 anni di esperienza in data engineering. È richiesta ottima conoscenza di Python, SQL e PySpark, con esperienza nella progettazione e ottimizzazione di pipeline su Databricks Cloud. La posizione implica progettare soluzioni di analytics e garantire la qualità e la sicurezza dei dati. Ottime opportunità di lavoro e crescita professionale.

Competenze

  • Minimo 3-4 anni di esperienza con Databricks.
  • Ottima conoscenza di Python, SQL e PySpark.
  • Esperienza nella progettazione di pipeline di dati.

Mansioni

  • Progettare e implementare data pipeline su Databricks Cloud.
  • Ottimizzare i workflow di data processing.
  • Collaborare all’integrazione dei processi di machine learning.

Conoscenze

Databricks
Python
SQL
PySpark
ETL/ELT

Strumenti

Azure
AWS
GCP
Power BI
DevOps
Descrizione del lavoro

Consulente Tecnico Databricks (min. 3-4 anni esperienza)

Competenze richieste (Must-Have) Esperienza comprovata di almeno 3-4 anni su Databricks e progetti di data engineering in ambiente cloud (preferibilmente Azure, ma vanno bene anche AWS o GCP). Ottima conoscenza di Python (essenziale), SQL e PySpark. Esperienza in progettazione, sviluppo e ottimizzazione di pipeline di dati, Data Lake, e Spark. Conoscenza di concetti ETL / ELT, data warehousing, data modeling, e best practice di sicurezza e governance dati.

Competenze preferenziali (Nice-to-have) Esperienza in DAX (ad esempio per integrazione Power BI o modelli di analytics avanzati). Conoscenza di Scala e Databricks Connect. Esperienza con PyTorch e TensorFlow per progetti di machine learning e deep learning su Databricks. Esperienza con DevOps (Azure DevOps / Jenkins) e strumenti CI / CD. Certificazioni Databricks Associate o Professional.

Responsabilità tipiche Progettare e implementare data pipeline e soluzioni analytics / ML scalabili su Databricks Cloud. Ottimizzare workflow di data processing, identificando e risolvendo colli di bottiglia. Collaborare all’integrazione e automazione dei processi di machine learning, incluse pipeline PyTorch / TensorFlow quando richiesto. Garantire monitoraggio, qualità e sicurezza dei dati su tutto il ciclo di vita dei progetti. Supportare team interni e clienti nella migrazione, ottimizzazione e gestione delle infrastrutture dati su Databricks.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.