Senior Data Engineer @ Devire
DevireOutsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla Klientów prowadzących innowacyjne i nowoczesne projekty.
Dla naszego klienta – firmy technologicznej tworzącej rozwiązania oparte na sztucznej inteligencji, które wspierają optymalizację przychodów i zarządzanie danymi w branży lotniczej, poszukujemy osoby na stanowisko Senior Data Engineera.
Lokalizacja: 100% zdalnie
Wynagrodzenie: 160-190 PLN net + VAT/h; B2B
- Wynagrodzenie do 190 PLN net+VAT/h; B2B.
- Długoterminowa współpraca.
- Praca zdalna.
- Pakiet benefitów (opieka medyczna, członkostwo sportowe itp.).
- Możliwość współpracy z międzynarodową firmą o stabilnej pozycji rynkowej.
Obowiązki
- Realizacja złożonych projektów ingestii danych oraz budowy hurtowni danych dla klientów.
- Projektowanie, rozwój i utrzymanie skalowalnych, niezawodnych oraz wydajnych potoków danych (ETL/ELT).
- Wdrażanie najlepszych praktyk oraz standaryzowanych procesów w zakresie przetwarzania i transformacji danych.
- Ścisła współpraca z interesariuszami biznesowymi i technicznymi – od analizy źródeł danych, przez implementację ETL, po definiowanie metryk jakości danych oraz SLA.
- Tworzenie i rozwój narzędzi wspierających onboarding klientów oraz ingestowanie nowych źródeł danych.
- Utrzymanie oraz rozwój modeli danych wykorzystywanych w platformie analitycznej.
- Definiowanie i wdrażanie testów walidacji danych oraz kontroli jakości (data validation / data QA).
- Zapewnienie stabilności środowiska produkcyjnego, w tym udział w dyżurach on-call (PagerDuty).
- Optymalizacja procesów przetwarzania danych pod kątem wydajności i kosztów.
Wymagania
- Min. 5 lat doświadczenia na stanowisku Data Engineera lub pokrewnego.
- Doświadczenie w pracy z DBT przy budowie i utrzymaniu procesów transformacji danych.
- Bardzo dobra znajomość Google BigQuery jako hurtowni danych.
- Doświadczenie w pracy z GCP (staging i trwałe przechowywanie danych).
- Praktyczna znajomość Apache Airflow / Google Composer w zakresie orkiestracji potoków danych.
- Bardzo dobra znajomość Pythona w kontekście budowy pipeline’ów danych i automatyzacji.
- Doświadczenie w pracy z Dockerem i konteneryzacją aplikacji.
- Praktyczna znajomość języka angielskiego na poziomie min. B2.