Masz wrażenie, że w obecnej pracy przestałeś się rozwijać? A może irytuje Cię praca w firmie z tysiącem managerów i skomplikowaną strukturą? Chcesz pracować w pełni zdalnie albo wpaść czasem do naszego biura w Gliwicach? 👉 Sprawdź naszą ofertę!
Cześć👋 Jesteśmy 30+ osobowym zespołem pragmatyków, którzy dostarczają projekty SaaS dla segmentu B2B. Obowiązuje u nas zasada “2-pizza-team”, co oznacza m.in. małe, zwinne zespoły do 8 ekspertów. Codzienna praca jest najczęściej oparta o Scrum lub Kanban (tu niespodzianek nie ma😜), staramy się pracować mądrze, zawsze w sposób dopasowany do wymagań projektu, struktury zespołu i samego klienta.
Szukamy Data Engineera, który sprawnie porusza się w świecie SQL, Pythona i narzędzi do modelowania danych (DBT, Snowflake, Databricks) oraz lubi tworzyć czysty, przemyślany kod.
Codzienne Zadania
- Pozyskiwanie, transformacja, modelowanie i testowanie danych — głównie z użyciem DBT.
- Praca w 90% na istniejących bazach danych (analiza, optymalizacja, rozwój).
- Projektowanie, rozwój i rozwiązywanie problemów z data pipelines.
- Udział w pełnym cyklu rozwoju rozwiązań — od zbierania wymagań po wdrożenie produkcyjne.
- Tworzenie wydajnego, wysokiej jakości kodu.
- Udział w Code Review i dbanie o dobre praktyki wytwarzania oprogramowania.
- Codzienna komunikacja i współpraca z zespołem oraz klientem.
Czego oczekujemy?
- Minimum 3 lat komercyjnego doświadczenia jako Data Engineer (lub w roli o podobnym zakresie).
- Bardzo dobrej znajomości Pythona – praktyczne umiejętności pisania wydajnego, czystego kodu z dbałością o zarządzanie pamięcią i performance.
- Bardzo dobrej znajomość SQL (ANSI SQL), w tym:
- Łączenie danych z wielu tabel.
- Tworzenie i interpretacja podzapytań (subqueries).
- Agregacje, grupowanie i funkcje okienkowe (window functions).
- Tworzenie i optymalizacja złożonych zapytań.
- Debugowanie zapytań, zrozumienie typów indeksów i poziomów izolacji transakcji.
- Doświadczenie w pracy z DBT (w tym testowanie w DBT).
- Doświadczenie z Snowflake lub Databricks.
Nice To Have
- Doświadczenie z Terraform, Airflow, Prefect lub podobnymi narzędziami orkiestracji.
- Znajomość Docker / Kubernetes.
- Wkład w projekty open-source lub aktywny profil na GitHubie.
- Zainteresowanie tematami z zakresu data architecture, cloud i CI/CD.
Co oferujemy?
- Wynagrodzenie w przedziale 18 000 - 22 000 PLN miesięcznie.
- Współpracę w oparciu o B2B.
- Pracę w zespole, w którym Twoje pomysły naprawdę mają znaczenie.
- Indywidualny budżet szkoleniowy oraz czas na rozwój.
- Luźną atmosferę, płaską strukturę i nieskomplikowane procesy.
- Możliwość pracy w 100% zdalnej (dostępne jest także nasze biuro w Gliwicach).
- Elastyczne godziny pracy.
- Nowy Macbook + standardowe benefity.