Attiva gli avvisi di lavoro via e-mail!

Senior Data Engineer

Tenth Revolution Group

Monza

Remoto

EUR 30.000 - 50.000

Tempo pieno

6 giorni fa
Candidati tra i primi

Aumenta le tue possibilità di ottenere un colloquio

Crea un curriculum personalizzato per un lavoro specifico per avere più probabilità di riuscita.

Descrizione del lavoro

Un'importante azienda tech è alla ricerca di un Data Pipeline Engineer freelance per lavorare in full remote. Il candidato dovrà avere esperienza con Apache Airflow e competenze avanzate in SQL, collaborando con il team di Data per garantire flussi di dati efficienti e affidabili. Questa posizione offre l'opportunità di lavorare in un ambiente dinamico e innovativo, contribuendo attivamente a progetti significativi nel campo dei dati.

Competenze

  • Esperienza comprovata con Apache Airflow 2.x.
  • Competenze solide in SQL avanzato.
  • Familiarità con strumenti di versionamento e ambienti cloud è un plus.

Mansioni

  • Progettare, sviluppare e mantenere pipeline di dati.
  • Integrare sorgenti dati eterogenee come API e database.
  • Collaborare con il team di Data Science per garantire dati di alta qualità.

Conoscenze

Apache Airflow
SQL avanzato
Database relazionali
Database non relazionali
Git
AWS
GCP
Azure
Docker
Kubernetes

Descrizione del lavoro

Posizione: Data Pipeline Engineer (Freelance, P.IVA, Full time & Full remote)

Descrizione del ruolo

Cerchiamo un professionista con esperienza consolidata nell’orchestrazione di pipeline dati utilizzando Apache Airflow. La figura entrerà a far parte del nostro team Data, collaborando con Data Scientist, Data Analyst e altri stakeholder per garantire l'affidabilità, scalabilità e manutenibilità dei nostri flussi di dati.

Responsabilità principali
  1. Progettare, sviluppare e mantenere pipeline di dati affidabili ed efficienti utilizzando Apache Airflow.
  2. Integrare sorgenti dati eterogenee (API, database, file system, data lake, ecc.).
  3. Collaborare con il team di Data Science e Business Intelligence per garantire dati accessibili e di alta qualità.
  4. Monitorare le performance delle pipeline e intervenire in caso di errori o colli di bottiglia.
  5. Garantire la sicurezza e la conformità del trattamento dei dati (es. GDPR).
Requisiti

Competenze tecniche:

  • Esperienza comprovata con Apache Airflow 2.x preferibile.
  • Solide competenze in SQL avanzato.
  • Esperienza con database relazionali (es. PostgreSQL, MySQL) e/o non relazionali (es. MongoDB, BigQuery).
  • Conoscenza di strumenti di versionamento del codice (Git).
  • Esperienza con ambienti cloud (AWS, GCP, Azure) è un plus.
  • Familiarità con strumenti di containerizzazione (Docker, Kubernetes) è un vantaggio.

Soft skills:

  • Ottime capacità di problem solving.
  • Attitudine al lavoro di squadra e alla comunicazione.
  • Precisione e attenzione ai dettagli.
Ulteriori dettagli
  • Contratto: Freelance P.IVA
  • Tipo di impiego: Full time & Full remote
  • Pagamento: ogni 14 giorni dalla data della fattura
  • Lingua: Inglese
Come candidarsi

Se sei interessato, invia la tua candidatura seguendo le istruzioni sul nostro sito.

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.